TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Mayer, Selina T1 - Understanding the impact of design thinking on organizations and individuals N2 - Organizations are investing billions on innovation and agility initiatives to stay competitive in their increasingly uncertain business environments. Design Thinking, an innovation approach based on human-centered exploration, ideation and experimentation, has gained increasing popularity. The market for Design Thinking, including software products and general services, is projected to reach 2.500 million $ (US-Dollar) by 2028. A dispersed set of positive outcomes have been attributed to Design Thinking. However, there is no clear understanding of what exactly comprises the impact of Design Thinking and how it is created. To support a billion-dollar market, it is essential to understand the value Design Thinking is bringing to organizations not only to justify large investments, but to continuously improve the approach and its application. Following a qualitative research approach combined with results from a systematic literature review, the results presented in this dissertation offer a structured understanding of Design Thinking impact. The results are structured along two main perspectives of impact: the individual and the organizational perspective. First, insights from qualitative data analysis demonstrate that measuring and assessing the impact of Design Thinking is currently one central challenge for Design Thinking practitioners in organizations. Second, the interview data revealed several effects Design Thinking has on individuals, demonstrating how Design Thinking can impact boundary management behaviors and enable employees to craft their jobs more actively. Contributing to innovation management research, the work presented in this dissertation systematically explains the Design Thinking impact, allowing other researchers to both locate and integrate their work better. The results of this research advance the theoretical rigor of Design Thinking impact research, offering multiple theoretical underpinnings explaining the variety of Design Thinking impact. Furthermore, this dissertation contains three specific propositions on how Design Thinking creates an impact: Design Thinking creates an impact through integration, enablement, and engagement. Integration refers to how Design Thinking enables organizations through effectively combining things, such as for example fostering balance between exploitation and exploration activities. Through Engagement, Design Thinking impacts organizations involving users and other relevant stakeholders in their work. Moreover, Design Thinking creates impact through Enablement, making it possible for individuals to enact a specific behavior or experience certain states. By synthesizing multiple theoretical streams into these three overarching themes, the results of this research can help bridge disciplinary boundaries, for example between business, psychology and design, and enhance future collaborative research. Practitioners benefit from the results as multiple desirable outcomes are detailed in this thesis, such as successful individual job crafting behaviors, which can be expected from practicing Design Thinking. This allows practitioners to enact more evidence-based decision-making concerning Design Thinking implementation. Overall, considering multiple levels of impact as well as a broad range of theoretical underpinnings are paramount to understanding and fostering Design Thinking impact. N2 - Unternehmen geben Milliarden für Innovations- und Agilitätsinitiativen aus. Sie wenden zunehmend agile und innovative Ansätze an, um komplexe Probleme zu erkunden und zu lösen. So stellen sie ihre Wettbewerbsfähigkeit sicher, da das heutige Geschäftsumfeld immer unsicherer und mehrdeutiger wird. Design Thinking ist ein immer beliebter werdender Innovationsansatz, der auf menschenzentrierter Erkundung, Ideenfindung und Experimenten basiert. Marktforschungen schätzen, dass der Design Thinking-Markt, einschließlich Softwareprodukten und allgemeinen Dienstleistungen, bis 2028 ein Volumen von 2,5 Milliarden US-Dollar erreichen wird. Zwar wurden Design Thinking vereinzelt positive Ergebnisse zugeschrieben (z. B. bessere Identifizierung von Kundenbedürfnissen, höhere Innovationsfähigkeiten, bessere Innovationsergebnisse), doch gibt es kein klares Verständnis darüber, was genau die Wirkung und den Mehrwert von Design Thinking ausmacht und wie diese Wirkung entsteht. Um einen Milliardenmarkt zu erhalten und zu rechtfertigen, ist es wichtig zu verstehen, welchen Wert Design Thinking für Unternehmen bringt. Dabei kommt es nicht nur darauf an, hohe Investitionen zu rechtfertigen, sondern auch darauf, den Ansatz und seine Einsatzgebiete kontinuierlich zu verbessern. Basierend auf qualitativen Interviewdaten und einer systematischen Literaturrecherche bietet diese Dissertation ein strukturiertes Verständnis der Wirkung von Design Thinking an. Die Ergebnisse sind entlang zweier Hauptwirkungsperspektiven gegliedert, der individuellen und der organisationalen Perspektive. Erstens zeigen Erkenntnisse aus der qualitativen Datenanalyse, dass die Messung und Bewertung der Auswirkungen von Design Thinking derzeit eine zentrale Herausforderung für Design Thinking-Praktiker in Organisationen darstellt. Zweitens zeigten die Interviewdaten mehrere Auswirkungen, die Design Thinking auf Einzelpersonen hat. Im Detail zeig die Arbeit, wie Design Thinking es MitarbeiterInnen ermöglich, ihre Grenzen zu managenen (= „Boundary Management“ zu betreiben), oder, auch, wie sie durch sogennantes „Job Crafting“ ihre Arbeit aktiv gestalten können. Als Beitrag zur Innovationsmanagementforschung erläutert diese Dissertation systematisch die Auswirkungen von Design Thinking und ermöglicht es anderen Forschern, ihre Arbeit besser zu lokalisieren und zu integrieren. Die Ergebnisse dieser Forschung erweitern die theoretische Integration der Design Thinking-Forschung und bieten mehrere theoretische Grundlagen, die die Vielfalt der Design Thinking-Wirkung erklären. Darüber hinaus schlägt diese Dissertation drei konkrete Thesen vor, wie Design Thinking Wirkung erzeugt: Design Thinking erzeugt Wirkung durch Integration, Enablement und Engagement. Integration bezieht sich darauf, wie Design Thinking Organisationen durch die effektive Kombination von Dingen unterstützt, beispielsweise durch die Förderung eines Gleichgewichts zwischen Exploration und Exploitation im Sinne der Ambidextrie. Durch Engagement wirkt sich Design Thinking auf Organisationen aus, die Benutzer und andere relevante Stakeholder in ihre Arbeit einbeziehen. Und Design Thinking erzeugt durch Enablement Wirkung und ermöglicht es Einzelpersonen, ein bestimmtes Verhalten auszuführen oder bestimmte Zustände zu erleben. Durch die Zusammenfassung mehrerer theoretischer Strömungen zu diesen drei übergreifenden Themen können die Ergebnisse dieser Forschung dazu beitragen, disziplinäre Grenzen, beispielsweise zwischen Wirtschaft, Psychologie und Design, zu überbrücken und zukünftige gemeinsame Forschung zu verbessern. Praktiker profitieren von den Ergebnissen, da diese Arbeit Ergebnisse detailliert beschreibt, die von zukünftigen Design Thinking-Aktivitäten erwartet werden können, sodass Praktiker eine evidenzbasiertere Entscheidung hinsichtlich der Design Thinking-Implementierung treffen können. Insgesamt ist die Berücksichtigung mehrerer Wirkungsebenen sowie einer breiten Palette theoretischer Grundlagen von größter Bedeutung, um die Wirkung von Design Thinking zu verstehen und zu fördern. T2 - Die Auswirkungen von Design Thinking auf Organisationen und Individuen KW - Design Thinking KW - Impact KW - Grounded Theory KW - Theoretical Foundations KW - Design Thinking KW - Grounded Theory KW - Auswirkungen KW - theoretische Grundlagen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651541 ER - TY - THES A1 - Heckenbach, Esther Lina T1 - Geodynamic modeling of process interactions at continental plate boundaries N2 - Plate tectonic boundaries constitute the suture zones between tectonic plates. They are shaped by a variety of distinct and interrelated processes and play a key role in geohazards and georesource formation. Many of these processes have been previously studied, while many others remain unaddressed or undiscovered. In this work, the geodynamic numerical modeling software ASPECT is applied to shed light on further process interactions at continental plate boundaries. In contrast to natural data, geodynamic modeling has the advantage that processes can be directly quantified and that all parameters can be analyzed over the entire evolution of a structure. Furthermore, processes and interactions can be singled out from complex settings because the modeler has full control over all of the parameters involved. To account for the simplifying character of models in general, I have chosen to study generic geological settings with a focus on the processes and interactions rather than precisely reconstructing a specific region of the Earth. In Chapter 2, 2D models of continental rifts with different crustal thicknesses between 20 and 50 km and extension velocities in the range of 0.5-10 mm/yr are used to obtain a speed limit for the thermal steady-state assumption, commonly employed to address the temperature fields of continental rifts worldwide. Because the tectonic deformation from ongoing rifting outpaces heat conduction, the temperature field is not in equilibrium, but is characterized by a transient, tectonically-induced heat flow signal. As a result, I find that isotherm depths of the geodynamic evolution models are shallower than a temperature distribution in equilibrium would suggest. This is particularly important for deep isotherms and narrow rifts. In narrow rifts, the magnitude of the transient temperature signal limits a well-founded applicability of the thermal steady-state assumption to extension velocities of 0.5-2 mm/yr. Estimation of the crustal temperature field affects conclusions on all temperature-dependent processes ranging from mineral assemblages to the feasible exploitation of a geothermal reservoir. In Chapter 3, I model the interactions of different rheologies with the kinematics of folding and faulting using the example of fault-propagation folds in the Andean fold-and-thrust belt. The evolution of the velocity fields from geodynamic models are compared with those from trishear models of the same structure. While the latter use only geometric and kinematic constraints of the main fault, the geodynamic models capture viscous, plastic, and elastic deformation in the entire model domain. I find that both models work equally well for early, and thus relatively simple stages of folding and faulting, while results differ for more complex situations where off-fault deformation and secondary faulting are present. As fault-propagation folds can play an important role in the formation of reservoirs, knowledge of fluid pathways, for example via fractures and faults, is crucial for their characterization. Chapter 4 deals with a bending transform fault and the interconnections between tectonics and surface processes. In particular, the tectonic evolution of the Dead Sea Fault is addressed where a releasing bend forms the Dead Sea pull-apart basin, while a restraining bend further to the North resulted in the formation of the Lebanese mountains. I ran 3D coupled geodynamic and surface evolution models that included both types of bends in a single setup. I tested various randomized initial strain distributions, showing that basin asymmetry is a consequence of strain localization. Furthermore, by varying the surface process efficiency, I find that the deposition of sediment in the pull-apart basin not only controls basin depth, but also results in a crustal flow component that increases uplift at the restraining bend. Finally, in Chapter 5, I present the computational basis for adding further complexity to plate boundary models in ASPECT with the implementation of earthquake-like behavior using the rate-and-state friction framework. Despite earthquakes happening on a relatively small time scale, there are many interactions between the seismic cycle and the long time spans of other geodynamic processes. Amongst others, the crustal state of stress as well as the presence of fluids or changes in temperature may alter the frictional behavior of a fault segment. My work provides the basis for a realistic setup of involved structures and processes, which is therefore important to obtain a meaningful estimate for earthquake hazards. While these findings improve our understanding of continental plate boundaries, further development of geodynamic software may help to reveal even more processes and interactions in the future. N2 - Plattentektonische Grenzen bilden die Nahtstellen zwischen tektonischen Platten. Sie werden durch eine Vielzahl von unterschiedlichen und miteinander verknüpften Prozessen geformt und spielen eine Schlüsselrolle im Bereich der Georisiken und der Entstehung von Georessourcen. Viele dieser Prozesse sind bereits erforscht, während viele andere noch unbearbeitet oder unentdeckt sind. In dieser Arbeit wird die geodynamische numerische Modellierungssoftware ASPECT verwendet, um weitere Prozessinteraktionen an kontinentalen Plattengrenzen zu untersuchen. Im Gegensatz zu natürlichen Daten hat die geodynamische Modellierung den Vorteil, dass Prozesse direkt quantifiziert und alle Parameter über die gesamte Entwicklung einer Struktur analysiert werden können. Außerdem können Prozesse und Wechselwirkungen aus komplexen Zusammenhängen herausgefiltert werden, da der Modellierer volle Kontrolle über alle beteiligten Parameter hat. Um dem vereinfachenden Charakter von Modellen im Allgemeinen Rechnung zu tragen, habe ich mich für die Untersuchung allgemeiner geologischer Gegeben-heiten entschieden, wobei der Schwerpunkt auf den Prozessen und Wechselwirkungen liegt, anstatt eine bestimmte Region der Erde genau zu rekonstruieren. In Kapitel 2 werden 2D-Modelle von kontinentalen Rifts mit unterschiedlichen Krustendicken zwischen 20 und 50 km, sowie Extensionsgeschwindigkeiten im Bereich von 0,5-10 mm/Jahr verwendet, um eine Geschwindigkeitsgrenze für die Annahme eines thermischen Gleichgewichtszustandes zu erhalten, welcher üblicherweise verwendet wird, um die Temperaturfelder kontinentaler Rifts weltweit zu beschreiben. Da die Geschwindigkeit der tektonischen Deformation die der Wärmeleitung übersteigt, befindet sich das Temperaturfeld nicht im Gleichgewicht, sondern ist durch ein transientes, tektonisch induziertes Wärmestromsignal gekennzeichnet. Daraus ergibt sich, dass die Tiefen der Isothermen in den geodynamischen Entwicklungsmodellen flacher liegen, als es eine Temperaturverteilung im Gleichgewichtszustand vermuten ließe. Dies macht sich besondersbei tiefen Isothermen und narrow Rifts bemerkbar. In narrow Rifts begrenzt die Magnitude des transienten Temperatursignals eine fundierte Anwendbarkeit der thermischen Gleichgewichtsannahme auf Extensionsgeschwindigkeiten im Bereich von 0,5-2 mm/Jahr. Die Abschätzung des Temperaturfeldes der Erdkruste wirkt sich auf alle temperaturabhängigen Prozesse aus, von der Mineralzusammensetzung bis hin zur möglichen Nutzung eines geothermischen Reservoirs. In Kapitel 3 modelliere ich die Wechselwirkungen verschiedener Rheologien mit der Kinematik von Auffaltungen und Verwerfungen am Beispiel von fault-propagation folds im andinen Falten- und Überschiebungsgürtel. Die Entwicklung der Geschwindigkeitsfelder aus geodynamischen Modellen wird mit denen aus Trishear-Modellen für dieselbe Struktur verglichen. Während letztere nur geometrische und kinematische Charakteristika der Hauptverwerfung verwenden, erfassen die geodynamischen Modelle sowohl viskose, wie auch plastische und elastische Verformung im gesamten Modellbereich. Meine Forschung zeigt, dass beide Modelle für frühe und damit vergleichbar einfache Phasen der Auffaltung und Verwerfung gleichermaßen gut anwendbar sind, während die Ergebnisse für komplexere Situationen, in denen Verfor-mungen außerhalb der Hauptstörung sowie sekundäre Verwerfungen auftreten, auseinander gehen. Da fault-propagation folds eine wichtige Rolle bei der Bildung von Lagerstätten spielen können, ist Kenntnis zu Migrationswegen von Fluiden, zum Beispiel über Klüfte und Verwerfungen, für ihre Charakterisierung von entscheidender Bedeutung. Kapitel 4 befasst sich mit Biegungen von Transformstörungen sowie den Zusammenhängen zwischen Tektonik und Oberflächenprozessen. Insbesondere wird die tektonische Entwicklung der Verwerfung am Toten Meer behandelt, wo eine von Extension geprägte Biegung der Verwerfung das Pull-Apart-Becken des Toten Meeres bildet, während eine weiter nördlich gelegene von Kompression geprägte Biegung zur Bildung eines Gebirgszuges im Libanon führte. Für dieses Kapitel habe ich gekoppelte 3D Modelle der Geodynamik und Oberflächenentwicklung genutzt sowie beide Arten von Biegungen in einem Modell erforscht. Das Testen von verschiedenen, zufälligen Initialspannungsverteilungen zeigte, dass die Asymmetrie des Beckens eine Folge der Spannungslokalisierung ist. Außerdem habe ich durch Variation der Oberflächenprozesseffizienz herausgearbeitet, dass die Sedimentierung im Pull-Apart-Becken nicht nur die Beckentiefe steuert, sondern auch zu einer Strömungskomponente von Erdkrustenmaterial führt, die die Ablift an der von Kompression geprägten Biegung der Transformstörung erhöht. Anschließend stelle ich in Kapitel 5 die Implementierung von erdbebenähnlichem Verhalten unter Verwendung der Rate-and-State Gleichungen vor, welche die Grundlage für die Erweiterung der Komplexität von Plattengrenzenmodellen in ASPECT bildet. Obwohl Erdbeben auf einer relativ kurzen Zeitskala stattfinden, gibt es viele Wechselwirkungen zwischen dem seismischen Zyklus und den langen Zeitspannen anderer geodynamischer Prozesse. Unter anderem können der Spannungszustand der Kruste sowie das Vorhandensein von Fluiden oder Änderungen der Temperatur das Reibungsverhalten eines Störungssegmentes verändern. Meine Arbeit liefert die Grundlage für einen realistischen Aufbau der beteiligten Strukturen und Prozesse, der wichtig ist, um eine aussagekräftige Abschätzung der Erdbebengefährdung zu erhalten. Während diese Ergebnisse unser Verständnis der kontinentalen Plattengrenzen verbessern, kann die Weiterentwicklung geodynamischer Software dazu beitragen, in Zukunft weitere Prozesse und Wechselwirkungen aufzudecken. T2 - Geodynamische Modellierung von Prozessinteraktionen an kontinentalen Plattengrenzen KW - geodynamic modeling KW - plate boundaries KW - continental crust KW - heat flow KW - landscape evolution KW - geodynamische Modellierung KW - Plattengrenzen KW - kontinentale Kruste KW - Wärmediffusion KW - Oberflächenmodellierung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647500 ER - TY - THES A1 - Mirzaee, Zohreh T1 - Ecology and phylogeny of Mantodea of Iran and adjacent areas N2 - Mantodea, commonly known as mantids, have captivated researchers owing to their enigmatic behavior and ecological significance. This order comprises a diverse array of predatory insects, boasting over 2,400 species globally and inhabiting a wide spectrum of ecosystems. In Iran, the mantid fauna displays remarkable diversity, yet numerous facets of this fauna remain poorly understood, with a significant dearth of systematic and ecological research. This substantial knowledge gap underscores the pressing need for a comprehensive study to advance our understanding of Mantodea in Iran and its neighboring regions. The principal objective of this investigation was to delve into the ecology and phylogeny of Mantodea within these areas. To accomplish this, our research efforts concentrated on three distinct genera within Iranian Mantodea. These genera were selected due to their limited existing knowledge base and feasibility for in-depth study. Our comprehensive methodology encompassed a multifaceted approach, integrating morphological analysis, molecular techniques, and ecological observations. Our research encompassed a comprehensive revision of the genus Holaptilon, resulting in the description of four previously unknown species. This extensive effort substantially advanced our understanding of the ecological roles played by Holaptilon and refined its systematic classification. Furthermore, our investigation into Nilomantis floweri expanded its known distribution range to include Iran. By conducting thorough biological assessments, genetic analyses, and ecological niche modeling, we obtained invaluable insights into distribution patterns and genetic diversity within this species. Additionally, our research provided a thorough comprehension of the life cycle, behaviors, and ecological niche modeling of Blepharopsis mendica, shedding new light on the distinctive characteristics of this mantid species. Moreover, we contributed essential knowledge about parasitoids that infect mantid ootheca, laying the foundation for future studies aimed at uncovering the intricate mechanisms governing ecological and evolutionary interactions between parasitoids and Mantodea. N2 - Mantodea, gemeinhin als Gottesanbeterinnen bekannt, haben Forscher aufgrund ihres rätselhaften Verhaltens und ihrer ökologischen Bedeutung in ihren Bann gezogen. Diese Ordnung umfasst eine Vielzahl räuberischer Insekten, von denen es weltweit über 2 400 Arten gibt und die ein breites Spektrum von Ökosystemen bewohnen. Im Iran weist die Gottesanbeterinnen-Fauna eine bemerkenswerte Vielfalt auf, doch zahlreiche Aspekte dieser Fauna sind nach wie vor nur unzureichend erforscht, und es besteht ein erheblicher Mangel an systematischen und ökologischen Untersuchungen. Diese beträchtliche Wissenslücke unterstreicht den dringenden Bedarf an einer umfassenden Studie, um unser Verständnis der Mantodea im Iran und den angrenzenden Regionen zu verbessern. Das Hauptziel dieser Untersuchung bestand darin, die Ökologie und Phylogenie der Mantodea in diesen Gebieten zu erforschen. Um dies zu erreichen, konzentrierten sich unsere Forschungsarbeiten auf drei verschiedene Gattungen innerhalb der iranischen Mantodea. Diese Gattungen wurden aufgrund ihrer begrenzten Wissensbasis und ihrer Eignung für eingehende Untersuchungen ausgewählt. Unsere umfassende Methodik umfasste einen vielschichtigen Ansatz, der morphologische Analysen, molekulare Techniken und ökologische Beobachtungen einbezog. Unsere Forschung umfasste eine umfassende Revision der Gattung Holaptilon, die zur Beschreibung von vier bisher unbekannten Arten führte. Diese umfangreichen Arbeiten haben unser Verständnis der ökologischen Rolle von Holaptilon wesentlich verbessert und die systematische Einordnung der Gattung verfeinert. Darüber hinaus konnten wir durch die Untersuchung von Nilomantis floweri ihr bekanntes Verbreitungsgebiet auf den Iran ausweiten. Durch gründliche biologische Untersuchungen, genetische Analysen und ökologische Nischenmodellierung erhielten wir unschätzbare Einblicke in die Verbreitungsmuster und die genetische Vielfalt dieser Art. Darüber hinaus lieferten unsere Forschungsarbeiten ein umfassendes Verständnis des Lebenszyklus, der Verhaltensweisen und der ökologischen Nischenmodellierung von Blepharopsis mendica und warfen ein neues Licht auf die besonderen Merkmale dieser Mantidenart. Darüber hinaus lieferten wir wichtige Erkenntnisse über Parasitoide, die Ootheken von Gottesanbeterinnen befallen, und legten damit den Grundstein für künftige Studien, die darauf abzielen, die komplizierten Mechanismen aufzudecken, die die ökologischen und evolutionären Wechselwirkungen zwischen Parasitoiden und Mantodea steuern. T2 - Ökologie und Phylogenie der Mantodea des Iran und angrenzender Gebiete KW - Mantodea KW - Ecology KW - Phylogeny KW - Mantodea KW - Ökologie KW - Phylogeni Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-652739 ER - TY - THES A1 - Shigeyama, Jotaro T1 - Virtual reality at 1:1 scale in small physical spaces N2 - Virtual Reality (VR) leads to the highest level of immersion if presented using a 1:1 mapping of virtual space to physical space—also known as real walking. The advent of inexpensive consumer virtual reality (VR) headsets, all capable of running inside-out position tracking, has brought VR to the home. However, many VR applications do not feature full real walking, but instead, feature a less immersive space-saving technique known as instant teleportation. Given that only 0.3% of home users run their VR experiences in spaces more than 4m2, the most likely explanation is the lack of the physical space required for meaningful use of real walking. In this thesis, we investigate how to overcome this hurdle. We demonstrate how to run 1:1-mapped VR experiences in small physical spaces and we explore the trade-off between space and immersion. (1) We start with a space limit of 15cm. We present DualPanto, a device that allows (blind) VR users to experience the virtual world from a 1:1 mapped bird’s eye perspective—by leveraging haptics. (2) We then relax our space constraints to 50cm, which is what seated users (e.g., on an airplane or train ride) have at their disposal. We leverage the space to represent a standing user in 1:1 mapping, while only compressing the user’s arm movement. We demonstrate our 4 prototype VirtualArms at the example of VR experiences limited to arm movement, such as boxing. (3) Finally, we relax our space constraints further to 3m2 of walkable space, which is what 75% of home users have access to. As well- established in the literature, we implement real walking with the help of portals, also known as “impossible spaces”. While impossible spaces on such dramatic space constraints tend to degenerate into incomprehensible mazes (as demonstrated, for example, by “TraVRsal”), we propose plausibleSpaces: presenting meaningful virtual worlds by adapting various visual elements to impossible spaces. Our techniques push the boundary of spatially meaningful VR interaction in various small spaces. We see further future challenges for new design approaches to immersive VR experiences for the smallest physical spaces in our daily life. N2 - Virtuelle Realität (VR) erzeugt die größte Immersion, wenn sie mit einer 1:1-Abbildung des virtuellen Raums auf den physischen Raum verwendet wird – dem sogenannten Real Walking. Das Aufkommen preiswerter VR-Headsets, die alle zu Inside-Out Positionstracking fähig sind, hat VR in die Haushalte von Heimanwendern gebracht. Viele VR-Anwendungen ermöglichen jedoch kein Real Walking, sondern bieten stattdessen eine weniger immersive, raumsparende Technik an, die als Instant Teleportation bekannt ist. In Anbetracht der Tatsache, dass nur 0,3% der Nutzer ihre VR-Anwendungen in Räumen von mehr als 4m² verwenden, ist die wahrscheinlichste Erklärung dafür der Mangel an physischem Raum, der für eine sinnvolle Nutzung des Real Walking erforderlich wäre. In dieser Arbeit untersuchen wir, wie diese Hürde überwunden werden kann. Wir zeigen, wie man 1:1 skalierte VR-Interaktionen in kleinen Räumen durchführen kann, und wir erforschen den Kompromiss zwischen der verfügbaren Menge an Raum und der Immersion. (1) Wir beginnen mit einer Raumbegrenzung von 15cm. Wir stellen DualPanto vor, ein Gerät, welches (blinden) VR-Benutzern ermöglicht, die virtuelle Welt aus einer 1:1 skalierten Vogelperspektive zu erleben indem es Haptik verwendet. (2) Dann lockern wir unsere räumliche Beschränkung auf 50 cm, ein Raum der sitzenden Benutzern (z.B. in einem Flugzeug oder Zug) zur Verfügung steht. Wir nutzen diesen Raum, um einen stehenden Benutzer in einer 1:1-Abbildung darzustellen, während wir nur die Armbewegung des Benutzers erfassen. Wir demonstrieren unseren Prototyp VirtualArms am Beispiel von VR-Erfahrungen, die auf Armbewegungen beschränkt sind, wie z.B. einem Boxkampf. (3) Schließlich lockern wir unsere räumlichen Beschränkungen weiter auf 3m² begehbare Fläche, welche 75% der Heimanwender zur Verfügung steht. Wie bereits in der Literatur etabliert, implementieren wir Real Walking mit Hilfe von Portalen, auch bekannt als Impossible Spaces. Während Impossible Spaces bei solch dramatisch begrenzten Platzverhältnissen dazu neigen, zu unverständlichen Labyrinthen zu werden (wie z.B. bei TraVRsal), schlagen wir plausibleSpaces vor: die Präsentation räumlich bedeutsamer virtueller Welten durch die Anpassung verschiedener visueller Elemente an Impossible Spaces. Unsere Techniken verschieben die Grenzen der räumlich bedeutsamen VR-Interaktion in verschiedenen kleinen Räumen. Als zukünftige Herausforderung sehen wir die Entwicklung neuer Designansätze für immersive VR-Erfahrungen für die kleinsten physischen Räume in unserem Alltag. T2 - Virtuelle Realität im Maßstab 1:1 in kleinem physischen Raum KW - virtual reality KW - haptics KW - human-computer interaction KW - Haptik KW - Mensch-Computer-Interaktion KW - Virtuelle Realität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649000 ER - TY - BOOK A1 - Juiz, Carlos A1 - Bermejo, Belen A1 - Calle, Alejandro A1 - Sidorova, Julia A1 - Lundberg, Lars A1 - Weidmann, Vera A1 - Lowitzki, Leon A1 - Mirtschin, Marvin A1 - Hoorn, André van A1 - Frank, Markus A1 - Schulz, Henning A1 - Stojanovic, Dragan A1 - Stojanovic, Natalija A1 - Stojnev Ilic, Aleksandra A1 - Friedrich, Tobias A1 - Lenzner, Pascal A1 - Weyand, Christopher A1 - Wagner, Markus A1 - Plauth, Max A1 - Polze, Andreas A1 - Nowicki, Marek A1 - Seth, Sugandh A1 - Kaur Chahal, Kuljit A1 - Singh, Gurwinder A1 - Speth, Sandro A1 - Janes, Andrea A1 - Camilli, Matteo A1 - Ziegler, Erik A1 - Schmidberger, Marcel A1 - Pörschke, Mats A1 - Bartz, Christian A1 - Lorenz, Martin A1 - Meinel, Christoph A1 - Beilich, Robert A1 - Bertazioli, Dario A1 - Carlomagno, Cristiano A1 - Bedoni, Marzia A1 - Messina, Vincenzina ED - Meinel, Christoph ED - Polze, Andreas ED - Beins, Karsten ED - Strotmann, Rolf ED - Seibold, Ulrich ED - Rödszus, Kurt ED - Müller, Jürgen ED - Sommer, Jürgen T1 - HPI Future SOC Lab BT - Proceedings 2020 T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam N2 - The “HPI Future SOC Lab” is a cooperation of the Hasso Plattner Institute (HPI) and industry partners. Its mission is to enable and promote exchange and interaction between the research community and the industry partners. The HPI Future SOC Lab provides researchers with free of charge access to a complete infrastructure of state of the art hard and software. This infrastructure includes components, which might be too expensive for an ordinary research environment, such as servers with up to 64 cores and 2 TB main memory. The offerings address researchers particularly from but not limited to the areas of computer science and business information systems. Main areas of research include cloud computing, parallelization, and In-Memory technologies. This technical report presents results of research projects executed in 2020. Selected projects have presented their results on April 21st and November 10th 2020 at the Future SOC Lab Day events. N2 - Das Future SOC Lab am HPI ist eine Kooperation des Hasso-Plattner-Instituts mit verschiedenen Industriepartnern. Seine Aufgabe ist die Ermöglichung und Förderung des Austausches zwischen Forschungsgemeinschaft und Industrie. Am Lab wird interessierten Wissenschaftlern eine Infrastruktur von neuester Hard- und Software kostenfrei für Forschungszwecke zur Verfügung gestellt. Dazu zählen teilweise noch nicht am Markt verfügbare Technologien, die im normalen Hochschulbereich in der Regel nicht zu finanzieren wären, bspw. Server mit bis zu 64 Cores und 2 TB Hauptspeicher. Diese Angebote richten sich insbesondere an Wissenschaftler in den Gebieten Informatik und Wirtschaftsinformatik. Einige der Schwerpunkte sind Cloud Computing, Parallelisierung und In-Memory Technologien. In diesem Technischen Bericht werden die Ergebnisse der Forschungsprojekte des Jahres 2020 vorgestellt. Ausgewählte Projekte stellten ihre Ergebnisse am 21. April und 10. November 2020 im Rahmen des Future SOC Lab Tags vor. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 159 KW - Future SOC Lab KW - research projects KW - multicore architectures KW - in-memory technology KW - cloud computing KW - machine learning KW - artifical intelligence KW - Future SOC Lab KW - Forschungsprojekte KW - Multicore Architekturen KW - In-Memory Technologie KW - Cloud Computing KW - maschinelles Lernen KW - künstliche Intelligenz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-598014 SN - 978-3-86956-565-1 SN - 1613-5652 SN - 2191-1665 IS - 159 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER - TY - THES A1 - Reimann, Hans T1 - Towards robust inference for Bayesian filtering of linear Gaussian dynamical systems subject to additive change T1 - Hin zu einer robusten Inferenz für Bayes'sche Filterung linearer gaußscher dynamischer Systeme bei additiver Veränderung N2 - State space models enjoy wide popularity in mathematical and statistical modelling across disciplines and research fields. Frequent solutions to problems of estimation and forecasting of a latent signal such as the celebrated Kalman filter hereby rely on a set of strong assumptions such as linearity of system dynamics and Gaussianity of noise terms. We investigate fallacy in mis-specification of the noise terms, that is signal noise and observation noise, regarding heavy tailedness in that the true dynamic frequently produces observation outliers or abrupt jumps of the signal state due to realizations of these heavy tails not considered by the model. We propose a formalisation of observation noise mis-specification in terms of Huber’s ε-contamination as well as a computationally cheap solution via generalised Bayesian posteriors with a diffusion Stein divergence loss resulting in the diffusion score matching Kalman filter - a modified algorithm akin in complexity to the regular Kalman filter. For this new filter interpretations of novel terms, stability and an ensemble variant are discussed. Regarding signal noise mis-specification, we propose a formalisation in the frame work of change point detection and join ideas from the popular CUSUM algo- rithm with ideas from Bayesian online change point detection to combine frequent reliability constraints and online inference resulting in a Gaussian mixture model variant of multiple Kalman filters. We hereby exploit open-end sequential probability ratio tests on the evidence of Kalman filters on observation sub-sequences for aggregated inference under notions of plausibility. Both proposed methods are combined to investigate the double mis-specification problem and discussed regarding their capabilities in reliable and well-tuned uncertainty quantification. Each section provides an introduction to required terminology and tools as well as simulation experiments on the popular target tracking task and the non-linear, chaotic Lorenz-63 system to showcase practical performance of theoretical considerations. N2 - Modelle im Zustandsraum finden breite Anwendung in der mathematischen und statistischen Modellierung verschiedener Disziplinen und Forschungsgebiete. Häufige Lösung von Problemen der Schätzung und Vorhersage von latenten Signalen wie der populäre Kalman Filter benötigen hierbei eine Reihe von starken annahmen wie Linearität der Dynamiken des Systems und Normalität der Fehlerterme. Wir untersuchen Hürden in der Modellierung durch Mis-Spezifizierung der Fehlerterme, hier des Signalfehlers und des Beobachtungsfehlers, bezüglich schweren Rändern. Die wahre Dynamik produziert häufig Beobachtungsausreißer oder plötzliche Sprünge des Signals als Realisationen dieser schweren Ränder, diese werden aber nicht durch das Modell berücksichtigt. Wir schlagen eine Formalisierung der Mis-Spezifizierung des Beobachtungsfehlers im Sinne von Hubers Epsilon-Kontaminierung sowie eine rechnerisch kosteneffiziente Lösung vor. Diese Lösung durch generalisierte Bayes'sche a-posteriori Verteilungen mit einer Diffusion Stein Divergenz resultiert in dem Diffusion-Score-Matching Kalman Filter - ein modifizierter Algorithmus ähnlich dem regulären Kalman Filter in Komplexität. Für diesen neuen Filter diskutieren wir Interpretationen neuer Terme, der Langzeitstabilität und eine Ensemble Variante. Bezüglich der Mis-Spezifizierung des Signalfehlers schlagen wir eine Formalisierung durch Wechselpunktdetektierung vor und verknüpfen Ideen des populären CUSUM Algorithmus mit Ideen der Bayes'schen Online Wechselpunktdetektierung um Eigenschaften in Zuverlässigkeit und Online-Inferenz zu erhalten. Das Ergebnis ist eine Gaussian-Mixture-Model Variante aus mehreren Kalman Filtern. Hierbei nutzen wir explizit die Open-End sequentielle Probability-Ratio-Tests zwischen den verschiedenen Kalman Filtern, um Inferenzen unter Plausibiltätsargumenten zu aggregieren. Beide vorgeschlagenen Ansätze werden gemeinsam untersucht für den Fall der zweifachen Mis-Spezifizierung und die Ergebnisse werden diskutiert bezüglich ihrer Zuverlässigkeit und Unsicherheitsquantifizierung. Jedes Kapitel beinhaltet eine Einführung in die notwendige Terminologie und mathematischen Werkzeuge, sowie Simulationsexperimente für das populäre Beispiel des Target Trackings und das nicht-lineare, chaotische Lorenz-63 System, um die praktische Performance die Theorie zu veranschaulichen. KW - statistical model Mis-specification KW - robust filtering KW - state space change point detection KW - Bayesian filtering KW - Bayesian modelling KW - Bayes'sche Modellierung KW - robustes Filtern KW - Zustandsraum Wechselpunktdetektierung KW - Mis-Spezifizierung statistischer Modelle Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649469 ER - TY - THES A1 - Reuß, Maximilian T1 - Laborexperimente, Überwachung und Simulation einer reaktiven Wand zur Abreinigung von eisen- und sulfathaltigen Bergbauwässern bei sauren und neutralen pH-Bedingungen T1 - Optical in-situ monitoring of acid and neutral mine drainage remediation: Laboratory and model investigation N2 - In dieser Arbeit wurde eine reaktive Wand in einem kleinskaligen Laborma\ss stab (Länge~=~40\,cm) entwickelt, die Eisen- und Sulfatbelastungen aus sauren Minenabwässern (engl. \textit{acid mine drainage} (AMD)) mit einer Effizienz von bis zu 30.2 bzw. 24.2\,\% über einen Zeitraum von 146~Tagen (50\,pv) abreinigen können sollte. Als reaktives Material wurde eine Mischung aus Gartenkompost, Buchenholz, Kokosnussschale und Calciumcarbonat verwendet. Die Zugabebedingungen waren eine Eisenkonzentration von 1000\,mg/L, eine Sulfatkonzentration von 3000\,mg/L und ein pH-Wert von 6.2. Unterschiede in der Materialzusammensetzung ergaben keine grö\ss eren Änderungen in der Sanierungseffizienz von Eisen- und Sulfatbelastungen (12.0 -- 15.4\,\% bzw. 7.0 -- 10.1\,\%) über einen Untersuchungszeitraum von 108~Tagen (41 -- 57\,pv). Der wichtigste Einflussfaktor auf die Abreinigungsleistung von Sulfat- und Eisenbelastungen war die Verweilzeit der AMD-Lösung im reaktiven Material. Diese kann durch eine Verringerung des Durchflusses oder eine Erhöhung der Länge der reaktiven Wand (engl. \textit{Permeable Reactive Barrier} (PRB)) erhöht werden. Ein halbierter Durchfluss erhöhte die Sanierungseffizienzen von Eisen und Sulfat auf 23.4 bzw. 32.7\,\%. Weiterhin stieg die Sanierungseffizienz der Eisenbelastungen auf 24.2\,\% bei einer Erhöhung der Sulfatzugabekonzentration auf 6000\,mg/L. Saure Startbedingungen (pH~=~2.2) konnten, durch das Calciumcarbonat im reaktiven Material, über einen Zeitraum von 47~Tagen (24\,pv) neutralisiert werden. Durch die Neutralisierung der sauren Startbedingungen wurde Calciumcarbonat in der \gls{prb} verbraucht und Calcium-Ionen freigesetzt, die die Sulfatsanierungseffizienz erhöht haben (24.9\,\%). Aufgrund einer Vergrö\ss erung der \gls{prb} in Breite und Tiefe und einer 2D-Parameterbestimmung konnten Randläufigkeiten beobachtet werden, ohne deren Einfluss sich die Sanierungseffizienz für Eisen- und Sulfatbelastungen erhöht (30.2 bzw. 24.2\,\%). \par Zur \textit{in-situ} Überwachung der \gls{prb} wurden optische Sensoren verwendet, um den pH-Wert, die Sauerstoffkonzentration und die Temperatur zu ermitteln. Es wurden, nach dem Ort und der Zeit aufgelöst, stabile Sauerstoffkonzentrationen und pH-Verläufe detektiert. Auch die Temperatur konnte nach dem Ort aufgelöst ermittelt werden. Damit zeigte diese Arbeit, dass optische Sensoren zur Überwachung der Stabilität einer \gls{prb} für die Reinigung von \gls{amd} verwendet werden können. \par Mit dem Simulationsprogramm MIN3P wurde eine Simulation erstellt, die die entwickelte PRB darstellt. Die Simulation kann die erhaltenen Laborergebnisse gut wiedergeben. Anschlie\ss end wurde eine simulierte \gls{prb} bei unterschiedlichen Filtergeschwindigkeiten ((4.0 -- 23.5)~$\cdot~\mathrm{10^{-7}}$\,m/s) und Längen der PRB (25 -- 400\,cm) untersucht. Es wurden Zusammenhänge der untersuchten Parameter mit der Sanierungseffizienz von Eisen- und Sulfatbelastungen ermittelt. Diese Zusammenhänge können verwendet werden, um die benötigte Verweilzeit der AMD-Lösung in einem zukünftigen PRB-System, die für die maximal mögliche Sanierungsleistung notwendig ist, zu berechnen. N2 - A subsurface permeable reactive barrier (\gls{prb}) can be deployed to remediate acid mine drainage (AMD). The performance of a \gls{prb} material under different boundary conditions (pH, flow velocity, sulfate concentration, dimension) was investigated in a series of column experiments applying in situ optical sensing methods for pH and oxygen detection. The reactive material consisted of organic components (compost, wood and coconut shell) mixed with calcium carbonate and fine gravel. The input concentrations were around 1000\,mg/L for iron and 3000\,mg/L for sulfate and the pH value was 6.2. The remediation efficiency could reach was 30.2\,\% in case of iron and for sulfate 24.2\,\% for a 40\,cm \gls{prb} for a duration time of 146~days (50\,pv). It can be expected to scale up when moving to a field-site \gls{prb} with greater thickness. The differences in organic material composition as chosen appeared minor (12.0 -- 15.4\,\% for iron and 7.0 -- 10.1\,\% for sulfate). Decreasing the flow velocity and increasing the sulfate input concentration and the pH value influenced the iron and sulfate removal. Low pH boundary conditions (pH = 2.2) were neutralized in the \gls{prb} by calcium carbonate during an experiment duration of 47~days (24\,pv). When enlarging the set-up to have a 2D dimension and expanding the parameter detection accordingly, boundary effects were seen, which decrease the remediation efficiency. Without these boundary effects the remediation efficiency of iron and sulfate increase to 30.0 and 24.2\,\%, respectively. \par This study also demonstrated the application of optical oxygen, pH and temperature monitoring in PRBs. Stable oxygen concentration and pH cources could be monitored time- and location-dependent. Also location-dependent temperature monitoring could be shown in this study. In this context, they can be used to monitor the stability of a \gls{prb} for the remediation of \gls{amd}. \par The modelling program MIN3P was used to create a simulation of the laboratory experiments. Additionally, different flow velocities and length of PRB were investigated with the simulation. This helps to design parameters, e.g. the residence time in the \gls{prb}, which is necessary for close to 100\,\% remediation efficiency. KW - Reaktive Wand KW - Saures Mienenwasser KW - faseroptische chemische Sensoren KW - permeable reactive barrier KW - acid mine drainage KW - fiber optical chemical sensors Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-648564 ER - TY - CHAP A1 - Mucha, Anne A1 - Engels, James J. A1 - Whibley, Fred A1 - Uegaki, Wataru A1 - Wamsley, James C. A1 - Dawson, Virginia A1 - Gruzdeva, Anastasija A1 - Alhazova, Anna A1 - Golovnina, Anna A1 - Nasyrova, Regina A1 - Sadkovsky, Feudor A1 - Weingartz, Siena A1 - Hohaus, Vera A1 - Cisse, Ousmane A1 - Coppock, Elizabeth A1 - Agodio, Badiba Olivier A1 - Jenks, Peter A1 - Sande, Hannah A1 - Zimmermann, Malte A1 - Berezovskaya, Polina A1 - Chen, Sihwei A1 - Renans, Agata ED - Lecavelier des Etangs-Levallois, Jeanne ED - Geick, Niklas ED - Grubic, Mira ED - Bharadwaj, Prarthanaa ED - Zimmermann, Malte T1 - Proceedings of TripleA 10 BT - fieldwork perspectives on the semantics of African, Asian and Austronesian languages T2 - Proceedings of TripleA N2 - The TripleA workshop series was founded in 2014 by linguists from Potsdam and Tübingen with the aim of providing a platform for researchers that conduct theoretically-informed linguistic fieldwork on meaning. Its focus is particularly on languages that are under-represented in the current research landscape, including but not limited to languages of Africa, Asia, and Australia, hence TripleA. For its 10th anniversary, TripleA returned to the University of Potsdam on the 7-9th of June 2023. The programme included 21 talks dealing with no less than 22 different languages, including three invited talks given by Sihwei Chen (Academia Sinica), Jérémy Pasquereau (Laboratoire de Linguistique de Nantes, CNRS) and Agata Renans (Ruhr-Universität Bochum). Nine of these (invited or peer-reviewed) talks are featured in this volume. N2 - Die TripleA-Workshop-Reihe wurde 2014 von Linguisten aus Potsdam und Tübingen mit dem Ziel gegründet, eine Plattform für Forscherinnen und Forscher zu bieten, die theoretisch informierte Feldforschung zu sprachlicher Bedeutung betreiben. Der Fokus liegt insbesondere auf Sprachen, die in der aktuellen Forschungslandschaft unterrepräsentiert sind, einschließlich (aber nicht ausschließlich) auf Sprachen aus Afrika, Asien und Australien: daher der Name TripleA. Zu seinem 10-jährigen Bestehen kehrte TripleA vom 7. Bis 9. Juni 2023 an die Universität Potsdam zurück. Das Programm umfasste 21 Vorträge zu nicht weniger als 22 verschiedenen Sprachen, darunter drei eingeladene Vorträge von Sihwei Chen (Academia Sinica), Jérémy Pasquereau (Laboratoire de Linguistique de Nantes, CNRS) und Agata Renans (Ruhr-Universität Bochum). Neun dieser (eingeladenen oder begutachteten) Vorträge sind in diesem Band abgedruckt. KW - African languages KW - Asian languages KW - Austronesian languages KW - fieldwork KW - semantics KW - afrikanische Sprachen KW - asiatische Sprachen KW - austronesische Sprachen KW - Feldforschung KW - Semantik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647980 ER -