TY - THES A1 - Pauli, Daniel T1 - Unraveling massive star and binary physics in the nearby low-metallicity galaxy, the Small Magellanic Cloud, as a proxy for high-redshift galaxies N2 - Massive stars (Mini > 8 Msol) are the key feedback agents within galaxies, as they shape their surroundings via their powerful winds, ionizing radiation, and explosive supernovae. Most massive stars are born in binary systems, where interactions with their companions significantly alter their evolution and the feedback they deposit in their host galaxy. Understanding binary evolution, particularly in the low-metallicity environments as proxies for the Early Universe, is crucial for interpreting the rest-frame ultraviolet spectra observed in high-redshift galaxies by telescopes like Hubble and James Webb. This thesis aims to tackle this challenge by investigating in detail massive binaries within the low-metallicity environment of the Small Magellanic Cloud galaxy. From ultraviolet and multi-epoch optical spectroscopic data, we uncovered post-interaction binaries. To comprehensively characterize these binary systems, their stellar winds, and orbital parameters, we use a multifaceted approach. The Potsdam Wolf-Rayet stellar atmosphere code is employed to obtain the stellar and wind parameters of the stars. Additionally, we perform consistent light and radial velocity fitting with the Physics of Eclipsing Binaries software, allowing for the independent determination of orbital parameters and component masses. Finally, we utilize these results to challenge the standard picture of stellar evolution and improve our understanding of low-metallicity stellar populations by calculating our binary evolution models with the Modules for Experiments in Stellar Astrophysics code. We discovered the first four O-type post-interaction binaries in the SMC (Chapters 2, 5, and 6). Their primary stars have temperatures similar to other OB stars and reside far from the helium zero-age main sequence, challenging the traditional view of binary evolution. Our stellar evolution models suggest this may be due to enhanced mixing after core-hydrogen burning. Furthermore, we discovered the so-far most massive binary system undergoing mass transfer (Chapter 3), offering a unique opportunity to test mass-transfer efficiency in extreme conditions. Our binary evolution calculations revealed unexpected evolutionary pathways for accreting stars in binaries, potentially providing the missing link to understanding the observed Wolf-Rayet population within the SMC (Chapter 4). The results presented in this thesis unveiled the properties of massive binaries at low-metallicity which challenge the way the spectra of high-redshift galaxies are currently being analyzed as well as our understanding of massive-star feedback within galaxies. N2 - Massereiche Sterne (Mini > 8 Msonne ) beeinflussen ihre Umgebung durch ihre starke Winde, ionisierende Strahlung und wenn sie als Supernova explodieren. Sie sind daher die Schlüsselfaktoren für die Rückkopplungsprozesse innerhalb von Galaxien. Die meisten massereichen Sterne entstehen in Doppelsternsystemen, in welchen sie mit ihren Begleitern interagieren können, was weitreichende Konsequenzen für ihre weitere Entwicklung und die Rückkopplung auf ihre Galaxie beeinflusst. Ein tiefgreifendes Verständnis der Entwicklung von Doppelsternen, insbesondere in metallarmen Umgebungen als Näherung für Sterne im frühe Universum, ist entscheidend für die richtige Interpretation der Spektren von Galaxies bei hohen Rotverschiebungen die von Weltraumteleskopen wie Hubble und James Webb beobachtet werden. Diese Dissertation widmet sich der Herausforderung für ein besseres Verständnis von Doppelsternsystemen, indem sie massereiche Doppelsterne in der metallarmen Umgebung der Galaxie „Kleinen Magellanischen Wolke“ detailliert untersucht. Anhand von zahlreichen ultravioletten und optischen Spektroskopiedaten konnten Doppelsterne, die schon miteinander interagiert haben, entdeckt werden. Um diese Doppelsternsysteme, die Parameter der einzelnen Sterne und ihrer Sternwinde sowie die Bahnparameter zu erhalten und zu charakterisieren, verwenden wir einen mehrteiligen Ansatz. Als erstes, um die Parameter der Sterne und ihrer Winde zu gewinnen, wird der Potsdamer Wolf-Rayet-Sternatmosphärencode eingesetzt. Darüber hinaus führen wir mit der Software „Physics of Eclipsing Binaries“ eine konsistente Licht- und Radialgeschwindigkeitsanpassung durch, die eine unabhängige Bestimmung der Bahnparameter und Komponentenmassen ermöglicht. Abschließend werden diese Ergebnisse verwendet, um die traditionelle Sichtweise der Doppelstern-Entwicklung in Frage zu stellen und unser Verständnis von Sternpopulationen mit geringer Metallizität zu verbessern, indem wir Evolutionsmodelle von Doppelsternen mithilfe des Codes „Modules for Experiments in Stellar Astrophysics“ berechnen. In dieser Arbeit konnten erstmalig vier massereiche O-Typ-Doppelsterne nach einer Wechselwirkung innerhalb der Kleinen Magellanischen Wolke entdeckt werden (Kapitel 2, 5 und 6). Überraschenderweise sind die Temperaturen der Massegeber vergleichbar mit denen anderer OB-Sterne und daher kühler als zuvor erwartet. Dies stellt die traditionelle Sichtweise der Doppelstern-Entwicklung in Frage. Unsere Sternenentwicklungsmodelle deuten darauf hin, dass die beobachtete Diskrepanz gelöst werden kann wenn man eine stärkere Durchmischung nach dem Wasserstoffbrennen im Kern annimmt. Darüber hinaus haben wir das bisher massereichste Doppelsternsystem entdeckt, welches sich gerade in einem Massenaustausch befindet (Kapitel 3). Dieses System bietet eine einzigartige Gelegenheit, die Effizienz des Massentransfers unter extremen Bedingungen zu testen. Des Weiteren haben unsere Berechnungen zur Doppelsternentwicklung unerwartete Entwicklungspfade für akkretierende Sterne in Doppelsternsystemen enthüllten, die möglicherweise das fehlende Bindeglied zum Verständnis der beobachteten Wolf-Rayet-Population in der Kleinen Magellanschen Wolke darstellen (Kapitel 4). Die in dieser Dissertation präsentierten Ergebnisse enthüllen die einzigartigen Eigenschaften von massereichen Doppelsternen in metallarmen Umgebungen, die sowohl die aktuelle Analyse der Spektren von Galaxien mit hoher Rotverschiebung als auch unser Verständnis der Rückkopplungsprozesse von massereichen Sternen in Galaxien in Frage stellen. T2 - Entschlüsselung der Physik massereicher Sterne und Doppelsternsysteme in der nahegelegenen, metallarmen Galaxie, der Kleinen Magellanschen Wolke, als Vertreter für Galaxien mit hoher Rotverschiebung KW - Massereiche Sterne KW - massive stars KW - Sternwind KW - stellar winds KW - Doppelstern KW - binary stars KW - Spektralanalyse KW - spectral analysis KW - Orbitalanalyse KW - orbital analysis KW - Sternenentwicklung KW - stellar evolution KW - OB-Sterne KW - OB-type stars KW - Wolf-Rayet Sterne KW - Wolf-Rayet stars KW - Kleine Magellansche Wolke KW - Small Magellanic Cloud Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-653184 ER - TY - THES A1 - Fulat, Karol T1 - Electron acceleration at quasi-perpendicular shocks in supernova remnants N2 - Astrophysical shocks, driven by explosive events such as supernovae, efficiently accelerate charged particles to relativistic energies. The majority of these shocks occur in collisionless plasmas where the energy transfer is dominated by particle-wave interactions.Strong nonrelativistic shocks found in supernova remnants are plausible sites of galactic cosmic ray production, and the observed emission indicates the presence of nonthermal electrons. To participate in the primary mechanism of energy gain - Diffusive Shock Acceleration - electrons must have a highly suprathermal energy, implying a need for very efficient pre-acceleration. This poorly understood aspect of the shock acceleration theory is known as the electron injection problem. Studying electron-scale phenomena requires the use of fully kinetic particle-in-cell (PIC) simulations, which describe collisionless plasma from first principles. Most published studies consider a homogenous upstream medium, but turbulence is ubiquitous in astrophysical environments and is typically driven at magnetohydrodynamic scales, cascading down to kinetic scales. For the first time, I investigate how preexisting turbulence affects electron acceleration at nonrelativistic shocks using the fully kinetic approach. To accomplish this, I developed a novel simulation framework that allows the study of shocks propagating in turbulent media. It involves simulating slabs of turbulent plasma separately, which are further continuously inserted into a shock simulation. This demands matching of the plasma slabs at the interface. A new procedure of matching electromagnetic fields and currents prevents numerical transients, and the plasma evolves self-consistently. The versatility of this framework has the potential to render simulations more consistent with turbulent systems in various astrophysical environments. In this Thesis, I present the results of 2D3V PIC simulations of high-Mach-number nonrelativistic shocks with preexisting compressive turbulence in an electron-ion plasma. The chosen amplitudes of the density fluctuations ($\lesssim15\%$) concord with \textit{in situ} measurements in the heliosphere and the local interstellar medium. I explored how these fluctuations impact the dynamics of upstream electrons, the driving of the plasma instabilities, electron heating and acceleration. My results indicate that while the presence of the turbulence enhances variations in the upstream magnetic field, their levels remain too low to influence the behavior of electrons at perpendicular shocks significantly. However, the situation is different at oblique shocks. The external magnetic field inclined at an angle between $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relative to the shock normal allows the escape of fast electrons toward the upstream region. An extended electron foreshock region is formed, where these particles drive various instabilities. Results of an oblique shock with $\theta_\text{Bn}=60^\circ$ propagating in preexisting compressive turbulence show that the foreshock becomes significantly shorter, and the shock-reflected electrons have higher temperatures. Furthermore, the energy spectrum of downstream electrons shows a well-pronounced nonthermal tail that follows a power law with an index up to -2.3. The methods and results presented in this Thesis could serve as a starting point for more realistic modeling of interactions between shocks and turbulence in plasmas from first principles. N2 - Astrophysikalische Schocks, die durch explosive Ereignisse wie Supernovae ausgelöst werden, beschleunigen geladene Teilchen effizient auf relativistische Energien. Die meisten dieser Schocks treten in kollisionsfreien Plasmen auf, in denen die Energieübertragung durch Teilchen-Wellen-Wechselwirkungen dominiert wird. Starke nichtrelativistische Schocks, die in Supernovaüberresten gefunden werden, sind plausible Orte der galaktischen kosmischen Strahlungsproduktion, und die beobachtete Emission deutet auf das Vorhandensein von nichtthermischen Elektronen hin. Um am primären Mechanismus der Energiegewinnung - der diffusiven Schockbeschleunigung - teilzunehmen, müssen die Elektronen eine hochgradig suprathermische Energie haben, was eine sehr effiziente Vorbeschleunigung voraussetzt. Dieser schlecht verstandene Aspekt der Stoßbeschleunigungstheorie ist als Elektroneninjektionsproblem bekannt. Die Untersuchung von Phänomenen auf der Elektronenskala erfordert den Einsatz von vollständig kinetischen Partikel-in-Zellen-Simulationen (PIC), die ein kollisionsfreies Plasma nach ersten Prinzipien beschreiben. Die meisten veröffentlichten Studien gehen von einem homogenen stromaufwärts gelegenen Medium aus, aber Turbulenzen sind in astrophysikalischen Umgebungen allgegenwärtig und werden typischerweise auf magnetohydrodynamischen Skalen angetrieben und kaskadieren hinunter zu kinetischen Skalen. Zum ersten Mal untersuche ich, wie sich eine bereits vorhandene Turbulenz auf die Elektronenbeschleunigung an nichtrelativistischen Schocks auswirkt, indem ich einen vollständig kinetischen Ansatz verwende. Zu diesem Zweck habe ich einen neuartigen Simulationsrahmen entwickelt, der die Untersuchung von Schocks ermöglicht, die sich in turbulenten Medien ausbreiten. Dabei werden die Platten des turbulenten Plasmas separat simuliert, die dann kontinuierlich in eine Schocksimulation eingefügt werden. Dies erfordert eine Anpassung der Plasmaplatten an der Grenzfläche. Ein neues Verfahren zur Anpassung elektromagnetischer Felder und Ströme verhindert numerische Transienten, und das Plasma entwickelt sich selbstkonsistent. Die Vielseitigkeit dieses Rahmens hat das Potenzial, Simulationen mit turbulenten Systemen in verschiedenen astrophysikalischen Umgebungen konsistenter zu machen. In dieser Arbeit präsentiere ich die Ergebnisse von 2D3V PIC-Simulationen von nichtrelativistischen Schocks mit hoher Mach-Zahl und bereits vorhandener kompressiver Turbulenz in einem Elektron-Ionen-Plasma. Die gewählten Amplituden der Dichtefluktuationen ($\lesssim15\%$) stimmen mit \textit{in situ} Messungen in der Heliosphäre und dem lokalen interstellaren Medium überein. Ich habe untersucht, wie sich diese Fluktuationen auf die Dynamik der stromaufwärts befindlichen Elektronen, den Antrieb der Plasmainstabilitäten, die Elektronenheizung und -beschleunigung auswirken. Meine Ergebnisse deuten darauf hin, dass das Vorhandensein von Turbulenzen zwar die Schwankungen des stromaufwärts gelegenen Magnetfelds verstärkt, dass aber die Schwankungen zu gering sind, um das Verhalten der Elektronen an senkrechten Schocks wesentlich zu beeinflussen. Bei schrägen Stößen ist die Situation jedoch anders. Das äußere Magnetfeld, das in einem Winkel zwischen $50^\circ \lesssim \theta_\text{Bn} \lesssim 75^\circ$ relativ zur Schocknormalen ermöglicht das Entweichen schneller Elektronen in Richtung der stromaufwärts gelegenen Region. Es bildet sich eine ausgedehnte Elektronenvorstoßregion, in der diese Teilchen verschiedene Instabilitäten auslösen. Die Ergebnisse eines schrägen Schocks mit $\theta_\text{Bn}=60^\circ$, der sich in einer vorher existierenden kompressiven Turbulenz ausbreitet, zeigen, dass der Vorschock deutlich kürzer wird und die vom Schock reflektierten Elektronen höhere Temperaturen aufweisen. Darüber hinaus zeigt das Energiespektrum der stromabwärts gerichteten Elektronen einen ausgeprägten nichtthermischen Schweif, der einem Potenzgesetz mit einem Index von bis zu -2,3 folgt. Die in dieser Arbeit vorgestellten Methoden und Ergebnisse könnten als Ausgangspunkt für eine realistischere Modellierung der Wechselwirkungen zwischen Schocks und Turbulenz in Plasmen nach ersten Prinzipien dienen. T2 - Elektronenbeschleunigung bei quasi senkrechten Schocks in Supernovaüberresten KW - astrophysical shocks KW - plasma physics KW - particle acceleration KW - astrophysikalische Schocks KW - Plasmaphysik KW - Teilchenbeschleunigung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651365 ER - TY - THES A1 - Valencia Sanmiguel, Antonio T1 - Condensation and crystallization on patterned surfaces N2 - Condensation and crystallization are omnipresent phenomena in nature. The formation of droplets or crystals on a solid surface are familiar processes which, beyond their scientific interest, are required in many technological applications. In recent years, experimental techniques have been developed which allow patterning a substrate with surface domains of molecular thickness, surface area in the mesoscopic scale, and different wettabilities (i.e., different degrees of preference for a substance that is in contact with the substrate). The existence of new patterned surfaces has led to increased theoretical efforts to understand wetting phenomena in such systems. In this thesis, we deal with some problems related to the equilibrium of phases (e.g., liquid-vapor coexistence) and the kinetics of phase separation in the presence of chemically patterned surfaces. Two different cases are considered: (i) patterned surfaces in contact with liquid and vapor, and (ii) patterned surfaces in contact with a crystalline phase. One of the problems that we have studied is the following: It is widely believed that if air containing water vapor is cooled to its dew point, droplets of water are immediately formed. Although common experience seems to support this view, it is not correct. It is only when air is cooled well below its dew point that the phase transition occurs immediately. A vapor cooled slightly below its dew point is in a metastable state, meaning that the liquid phase is more stable than the vapor, but the formation of droplets requires some time to occur, which can be very long. It was first pointed out by J. W. Gibbs that the metastability of a vapor depends on the energy necessary to form a nucleus (a droplet of a critical size). Droplets smaller than the critical size will tend to disappear, while droplets larger than the critical size will tend to grow. This is consistent with an energy barrier that has its maximum at the critical size, as is the case for droplets formed directly in the vapor or in contact with a chemically uniform planar wall. Classical nucleation theory describes the time evolution of the condensation in terms of the random process of droplet growth through this energy barrier. This process is activated by thermal fluctuations, which eventually will form a droplet of the critical size. We consider nucleation of droplets from a vapor on a substrate patterned with easily wettable (lyophilic) circular domains. Under certain conditions of pressure and temperature, the condensation of a droplet on a lyophilic circular domain proceeds through a barrier with two maxima (a double barrier). We have extended classical nucleation theory to account for the kinetics of nucleation through a double barrier, and applied this extension to nucleation on lyophilic circular domains. N2 - Kondensation und Kristallisation sind allgegenwärtige Phänomene in der Natur. Die Bildung von Tröpfchen oder Kristallen auf einer festen Oberfläche sind vertraute Prozesse, die über ihr wissenschaftliches Interesse hinaus in vielen technologischen Anwendungen erforderlich sind. In den letzten Jahren wurden experimentelle Techniken entwickelt, die es ermöglichen, ein Substrat mit Oberflächendomänen von molekularer Dicke, mesoskopischer Oberflächengröße und unterschiedlichen Benetzbarkeiten (d.h. unterschiedlichen Graden der Präferenz für eine Substanz, die mit dem Substrat in Kontakt steht) zu strukturieren. Die Existenz neuer strukturierter Oberflächen hat zu verstärkten theoretischen Bemühungen geführt, Benetzungsphänomene in solchen Systemen zu verstehen. In dieser Arbeit befassen wir uns mit einigen Problemen im Zusammenhang mit dem Gleichgewicht von Phasen (z.B. Flüssig-Dampf-Koexistenz) und der Kinetik der Phasentrennung in Gegenwart von chemisch strukturierten Oberflächen. Zwei verschiedene Fälle werden betrachtet: (i) strukturierte Oberflächen in Kontakt mit Flüssigkeit und Dampf und (ii) strukturierte Oberflächen in Kontakt mit einer kristallinen Phase. Eines der Probleme, die wir untersucht haben, ist das folgende: Es wird allgemein angenommen, dass sich bei Abkühlung von wasserdampfhaltiger Luft auf ihren Taupunkt sofort Wassertröpfchen bilden. Obwohl die allgemeine Erfahrung diese Ansicht zu unterstützen scheint, ist sie nicht korrekt. Erst wenn die Luft deutlich unter ihren Taupunkt gekühlt wird, tritt der Phasenübergang sofort ein. Ein leicht unter seinen Taupunkt gekühlter Dampf befindet sich in einem metastabilen Zustand, was bedeutet, dass die flüssige Phase stabiler als der Dampf ist, aber die Bildung von Tröpfchen einige Zeit benötigt, die sehr lang sein kann. J. W. Gibbs wies erstmals darauf hin, dass die Metastabilität eines Dampfes von der Energie abhängt, die zur Bildung eines Keims (eines Tröpfchens kritischer Größe) notwendig ist. Tröpfchen, die kleiner als die kritische Größe sind, neigen dazu zu verschwinden, während Tröpfchen, die größer als die kritische Größe sind, dazu neigen zu wachsen. Dies stimmt mit einer Energiebarriere überein, die ihr Maximum bei der kritischen Größe hat, wie es bei Tröpfchen der Fall ist, die sich direkt im Dampf oder in Kontakt mit einer chemisch einheitlichen ebenen Wand bilden. Die klassische Nukleationstheorie beschreibt die zeitliche Entwicklung der Kondensation als zufälligen Prozess des Tröpfchenwachstums durch diese Energiebarriere. Dieser Prozess wird durch thermische Fluktuationen aktiviert, die schließlich ein Tröpfchen kritischer Größe bilden. Wir betrachten die Nukleation von Tröpfchen aus einem Dampf auf einem Substrat, das mit leicht benetzbaren (lyophilen) kreisförmigen Domänen strukturiert ist. Unter bestimmten Druck- und Temperaturbedingungen verläuft die Kondensation eines Tröpfchens auf einer lyophilen kreisförmigen Domäne durch eine Barriere mit zwei Maxima (eine Doppelbarriere). Wir haben die klassische Nukleationstheorie erweitert, um die Kinetik der Nukleation durch eine Doppelbarriere zu berücksichtigen, und haben diese Erweiterung auf die Nukleation auf lyophilen kreisförmigen Domänen angewendet. KW - Chemical physics KW - Condensation KW - Nucleation KW - Crystallization KW - Computer simulation KW - Soft condensed matter KW - Phase transitions KW - Chemically patterned surfaces KW - Monte Carlo simulation KW - Kondensation KW - Kristallisation KW - Oberfläche KW - Keimbildung KW - Mathematisches Modell Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651950 ER - TY - THES A1 - Arend, Marius T1 - Comparing genome-scale models of protein-constrained metabolism in heterotrophic and photosynthetic microorganisms N2 - Genome-scale metabolic models are mathematical representations of all known reactions occurring in a cell. Combined with constraints based on physiological measurements, these models have been used to accurately predict metabolic fluxes and effects of perturbations (e.g. knock-outs) and to inform metabolic engineering strategies. Recently, protein-constrained models have been shown to increase predictive potential (especially in overflow metabolism), while alleviating the need for measurement of nutrient uptake rates. The resulting modelling frameworks quantify the upkeep cost of a certain metabolic flux as the minimum amount of enzyme required for catalysis. These improvements are based on the use of in vitro turnover numbers or in vivo apparent catalytic rates of enzymes for model parameterization. In this thesis several tools for the estimation and refinement of these parameters based on in vivo proteomics data of Escherichia coli, Saccharomyces cerevisiae, and Chlamydomonas reinhardtii have been developed and applied. The difference between in vitro and in vivo catalytic rate measures for the three microorganisms was systematically analyzed. The results for the facultatively heterotrophic microalga C. reinhardtii considerably expanded the apparent catalytic rate estimates for photosynthetic organisms. Our general finding pointed at a global reduction of enzyme efficiency in heterotrophy compared to other growth scenarios. Independent of the modelled organism, in vivo estimates were shown to improve accuracy of predictions of protein abundances compared to in vitro values for turnover numbers. To further improve the protein abundance predictions, machine learning models were trained that integrate features derived from protein-constrained modelling and codon usage. Combining the two types of features outperformed single feature models and yielded good prediction results without relying on experimental transcriptomic data. The presented work reports valuable advances in the prediction of enzyme allocation in unseen scenarios using protein constrained metabolic models. It marks the first successful application of this modelling framework in the biotechnological important taxon of green microalgae, substantially increasing our knowledge of the enzyme catalytic landscape of phototrophic microorganisms. N2 - Genomweite Stoffwechselmodelle sind mathematische Darstellungen aller bekannten Reaktionen, die in einer Zelle ablaufen. In Kombination mit Einschränkungen, die auf physiologischen Messungen beruhen, wurden diese Modelle zur genauen Vorhersage von Stoffwechselflüssen und Auswirkungen von Manipulationene (z. B. Knock-outs) sowie zum Entwerfen von Metabolic Engineering Strategien verwendet. In jüngster Zeit hat sich gezeigt, dass proteinlimitierte Modelle, welche die Menge an Proteinen in einer Zelle als Modelbeschränkungen integrieren, ein erweitertes Modellierungspotenzial besitzen (insbesondere beim Überflussstoffwechsel) und gleichzeitig die Messungen der Nährstoffaufnahmerate eines Organismus optional machen. Die resultierenden Modelle quantifizieren die Unterhaltskosten eines bestimmten Stoffwechselflusses als die für die Katalyse erforderliche Mindestmenge an Enzymen. Die beobachtete Verbesserungen in den Voraussagefähigkeiten solcher Modelle werden durch die Parameterisierung mit unterschiedlichen in vitro und in vivo Approximationen der maximalen katalytischen Effizienz (Wechselzahl) aller Enyzme eines Organismus ermöglicht. In dieser Arbeit wurden verschiedene Verfahren zur Schätzung und Verfeinerung dieser Parameter auf der Grundlage von in vivo Proteomikdaten der Organismen Escherichia coli, Saccharomyces cerevisiae und Chlamydomonas reinhardtii entwickelt und angewendet. Der Unterschied zwischen den in vitro und in vivo berechneten katalytischen Raten für die drei Mikroorganismen wurde systematisch analysiert. Die Ergebnisse für die fakultativ heterotrophe Mikroalge C. reinhardtii erweitern die Menge an verfügbaren enzymkatalytischen Parametern für photosynthetische Organismen erheblich. Weiterhin deuten unsere Ergbnisse für C. reinhardtii auf eine globale Verringerung der Enzymeffizienz bei Heterotrophie im Vergleich zu anderen Wachstumsszenarien hin. Unabhängig vom modellierten Organismus konnte gezeigt werden, dass geschätzte in vivo Wechselzahlen die Genauigkeit der Vorhersagen von Proteinmengen im Vergleich zu in vitro Werten verbessern. Um die Vorhersagen von Proteinmengen weiter zu verbessern, wurden Modelle aus dem Bereich des maschinellen Lernens trainiert, die Prediktoren basierend auf der proteinlimitierten Modellierung und der Proteinsequenz integrieren. Die Kombination der beiden Arten von Prediktoren übertraf die Leistung von Modellen mit nur einer Art von Prediktoren und lieferte gute Vorhersageergebnisse, ohne auf experimentelle Transkriptionsdaten angewiesen zu sein. Die vorgestellte Arbeit stellt einen wertvollen Fortschritt bei der Vorhersage der Enzymallokation in unbekannten Szenarien unter Verwendung von proteinlimitierten Stoffwechselmodellen dar. Sie markiert die erste erfolgreiche Anwendung dieses Modellierungsverfahren in dem biotechnologisch wichtigen Taxon der grünen Mikroalgen und erweitert unser Wissen über die enzymkatalytische Landschaft phototropher Mikroorganismen entscheidend. T2 - Vergleich und Analyse genomweiter Modelle des protein-limitierten Metabolismus in heterotrophen und photosynthetischen Microorganismen KW - Metabolic Modeling KW - Systems Biology KW - Computational Biology KW - Proteomics KW - computergestützte Biologie KW - metabolische Modellierung KW - Proteomics KW - Systembiologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651470 ER - TY - THES A1 - Mayer, Selina T1 - Understanding the impact of design thinking on organizations and individuals N2 - Organizations are investing billions on innovation and agility initiatives to stay competitive in their increasingly uncertain business environments. Design Thinking, an innovation approach based on human-centered exploration, ideation and experimentation, has gained increasing popularity. The market for Design Thinking, including software products and general services, is projected to reach 2.500 million $ (US-Dollar) by 2028. A dispersed set of positive outcomes have been attributed to Design Thinking. However, there is no clear understanding of what exactly comprises the impact of Design Thinking and how it is created. To support a billion-dollar market, it is essential to understand the value Design Thinking is bringing to organizations not only to justify large investments, but to continuously improve the approach and its application. Following a qualitative research approach combined with results from a systematic literature review, the results presented in this dissertation offer a structured understanding of Design Thinking impact. The results are structured along two main perspectives of impact: the individual and the organizational perspective. First, insights from qualitative data analysis demonstrate that measuring and assessing the impact of Design Thinking is currently one central challenge for Design Thinking practitioners in organizations. Second, the interview data revealed several effects Design Thinking has on individuals, demonstrating how Design Thinking can impact boundary management behaviors and enable employees to craft their jobs more actively. Contributing to innovation management research, the work presented in this dissertation systematically explains the Design Thinking impact, allowing other researchers to both locate and integrate their work better. The results of this research advance the theoretical rigor of Design Thinking impact research, offering multiple theoretical underpinnings explaining the variety of Design Thinking impact. Furthermore, this dissertation contains three specific propositions on how Design Thinking creates an impact: Design Thinking creates an impact through integration, enablement, and engagement. Integration refers to how Design Thinking enables organizations through effectively combining things, such as for example fostering balance between exploitation and exploration activities. Through Engagement, Design Thinking impacts organizations involving users and other relevant stakeholders in their work. Moreover, Design Thinking creates impact through Enablement, making it possible for individuals to enact a specific behavior or experience certain states. By synthesizing multiple theoretical streams into these three overarching themes, the results of this research can help bridge disciplinary boundaries, for example between business, psychology and design, and enhance future collaborative research. Practitioners benefit from the results as multiple desirable outcomes are detailed in this thesis, such as successful individual job crafting behaviors, which can be expected from practicing Design Thinking. This allows practitioners to enact more evidence-based decision-making concerning Design Thinking implementation. Overall, considering multiple levels of impact as well as a broad range of theoretical underpinnings are paramount to understanding and fostering Design Thinking impact. N2 - Unternehmen geben Milliarden für Innovations- und Agilitätsinitiativen aus. Sie wenden zunehmend agile und innovative Ansätze an, um komplexe Probleme zu erkunden und zu lösen. So stellen sie ihre Wettbewerbsfähigkeit sicher, da das heutige Geschäftsumfeld immer unsicherer und mehrdeutiger wird. Design Thinking ist ein immer beliebter werdender Innovationsansatz, der auf menschenzentrierter Erkundung, Ideenfindung und Experimenten basiert. Marktforschungen schätzen, dass der Design Thinking-Markt, einschließlich Softwareprodukten und allgemeinen Dienstleistungen, bis 2028 ein Volumen von 2,5 Milliarden US-Dollar erreichen wird. Zwar wurden Design Thinking vereinzelt positive Ergebnisse zugeschrieben (z. B. bessere Identifizierung von Kundenbedürfnissen, höhere Innovationsfähigkeiten, bessere Innovationsergebnisse), doch gibt es kein klares Verständnis darüber, was genau die Wirkung und den Mehrwert von Design Thinking ausmacht und wie diese Wirkung entsteht. Um einen Milliardenmarkt zu erhalten und zu rechtfertigen, ist es wichtig zu verstehen, welchen Wert Design Thinking für Unternehmen bringt. Dabei kommt es nicht nur darauf an, hohe Investitionen zu rechtfertigen, sondern auch darauf, den Ansatz und seine Einsatzgebiete kontinuierlich zu verbessern. Basierend auf qualitativen Interviewdaten und einer systematischen Literaturrecherche bietet diese Dissertation ein strukturiertes Verständnis der Wirkung von Design Thinking an. Die Ergebnisse sind entlang zweier Hauptwirkungsperspektiven gegliedert, der individuellen und der organisationalen Perspektive. Erstens zeigen Erkenntnisse aus der qualitativen Datenanalyse, dass die Messung und Bewertung der Auswirkungen von Design Thinking derzeit eine zentrale Herausforderung für Design Thinking-Praktiker in Organisationen darstellt. Zweitens zeigten die Interviewdaten mehrere Auswirkungen, die Design Thinking auf Einzelpersonen hat. Im Detail zeig die Arbeit, wie Design Thinking es MitarbeiterInnen ermöglich, ihre Grenzen zu managenen (= „Boundary Management“ zu betreiben), oder, auch, wie sie durch sogennantes „Job Crafting“ ihre Arbeit aktiv gestalten können. Als Beitrag zur Innovationsmanagementforschung erläutert diese Dissertation systematisch die Auswirkungen von Design Thinking und ermöglicht es anderen Forschern, ihre Arbeit besser zu lokalisieren und zu integrieren. Die Ergebnisse dieser Forschung erweitern die theoretische Integration der Design Thinking-Forschung und bieten mehrere theoretische Grundlagen, die die Vielfalt der Design Thinking-Wirkung erklären. Darüber hinaus schlägt diese Dissertation drei konkrete Thesen vor, wie Design Thinking Wirkung erzeugt: Design Thinking erzeugt Wirkung durch Integration, Enablement und Engagement. Integration bezieht sich darauf, wie Design Thinking Organisationen durch die effektive Kombination von Dingen unterstützt, beispielsweise durch die Förderung eines Gleichgewichts zwischen Exploration und Exploitation im Sinne der Ambidextrie. Durch Engagement wirkt sich Design Thinking auf Organisationen aus, die Benutzer und andere relevante Stakeholder in ihre Arbeit einbeziehen. Und Design Thinking erzeugt durch Enablement Wirkung und ermöglicht es Einzelpersonen, ein bestimmtes Verhalten auszuführen oder bestimmte Zustände zu erleben. Durch die Zusammenfassung mehrerer theoretischer Strömungen zu diesen drei übergreifenden Themen können die Ergebnisse dieser Forschung dazu beitragen, disziplinäre Grenzen, beispielsweise zwischen Wirtschaft, Psychologie und Design, zu überbrücken und zukünftige gemeinsame Forschung zu verbessern. Praktiker profitieren von den Ergebnissen, da diese Arbeit Ergebnisse detailliert beschreibt, die von zukünftigen Design Thinking-Aktivitäten erwartet werden können, sodass Praktiker eine evidenzbasiertere Entscheidung hinsichtlich der Design Thinking-Implementierung treffen können. Insgesamt ist die Berücksichtigung mehrerer Wirkungsebenen sowie einer breiten Palette theoretischer Grundlagen von größter Bedeutung, um die Wirkung von Design Thinking zu verstehen und zu fördern. T2 - Die Auswirkungen von Design Thinking auf Organisationen und Individuen KW - Design Thinking KW - Impact KW - Grounded Theory KW - Theoretical Foundations KW - Design Thinking KW - Grounded Theory KW - Auswirkungen KW - theoretische Grundlagen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-651541 ER - TY - THES A1 - Heckenbach, Esther Lina T1 - Geodynamic modeling of process interactions at continental plate boundaries N2 - Plate tectonic boundaries constitute the suture zones between tectonic plates. They are shaped by a variety of distinct and interrelated processes and play a key role in geohazards and georesource formation. Many of these processes have been previously studied, while many others remain unaddressed or undiscovered. In this work, the geodynamic numerical modeling software ASPECT is applied to shed light on further process interactions at continental plate boundaries. In contrast to natural data, geodynamic modeling has the advantage that processes can be directly quantified and that all parameters can be analyzed over the entire evolution of a structure. Furthermore, processes and interactions can be singled out from complex settings because the modeler has full control over all of the parameters involved. To account for the simplifying character of models in general, I have chosen to study generic geological settings with a focus on the processes and interactions rather than precisely reconstructing a specific region of the Earth. In Chapter 2, 2D models of continental rifts with different crustal thicknesses between 20 and 50 km and extension velocities in the range of 0.5-10 mm/yr are used to obtain a speed limit for the thermal steady-state assumption, commonly employed to address the temperature fields of continental rifts worldwide. Because the tectonic deformation from ongoing rifting outpaces heat conduction, the temperature field is not in equilibrium, but is characterized by a transient, tectonically-induced heat flow signal. As a result, I find that isotherm depths of the geodynamic evolution models are shallower than a temperature distribution in equilibrium would suggest. This is particularly important for deep isotherms and narrow rifts. In narrow rifts, the magnitude of the transient temperature signal limits a well-founded applicability of the thermal steady-state assumption to extension velocities of 0.5-2 mm/yr. Estimation of the crustal temperature field affects conclusions on all temperature-dependent processes ranging from mineral assemblages to the feasible exploitation of a geothermal reservoir. In Chapter 3, I model the interactions of different rheologies with the kinematics of folding and faulting using the example of fault-propagation folds in the Andean fold-and-thrust belt. The evolution of the velocity fields from geodynamic models are compared with those from trishear models of the same structure. While the latter use only geometric and kinematic constraints of the main fault, the geodynamic models capture viscous, plastic, and elastic deformation in the entire model domain. I find that both models work equally well for early, and thus relatively simple stages of folding and faulting, while results differ for more complex situations where off-fault deformation and secondary faulting are present. As fault-propagation folds can play an important role in the formation of reservoirs, knowledge of fluid pathways, for example via fractures and faults, is crucial for their characterization. Chapter 4 deals with a bending transform fault and the interconnections between tectonics and surface processes. In particular, the tectonic evolution of the Dead Sea Fault is addressed where a releasing bend forms the Dead Sea pull-apart basin, while a restraining bend further to the North resulted in the formation of the Lebanese mountains. I ran 3D coupled geodynamic and surface evolution models that included both types of bends in a single setup. I tested various randomized initial strain distributions, showing that basin asymmetry is a consequence of strain localization. Furthermore, by varying the surface process efficiency, I find that the deposition of sediment in the pull-apart basin not only controls basin depth, but also results in a crustal flow component that increases uplift at the restraining bend. Finally, in Chapter 5, I present the computational basis for adding further complexity to plate boundary models in ASPECT with the implementation of earthquake-like behavior using the rate-and-state friction framework. Despite earthquakes happening on a relatively small time scale, there are many interactions between the seismic cycle and the long time spans of other geodynamic processes. Amongst others, the crustal state of stress as well as the presence of fluids or changes in temperature may alter the frictional behavior of a fault segment. My work provides the basis for a realistic setup of involved structures and processes, which is therefore important to obtain a meaningful estimate for earthquake hazards. While these findings improve our understanding of continental plate boundaries, further development of geodynamic software may help to reveal even more processes and interactions in the future. N2 - Plattentektonische Grenzen bilden die Nahtstellen zwischen tektonischen Platten. Sie werden durch eine Vielzahl von unterschiedlichen und miteinander verknüpften Prozessen geformt und spielen eine Schlüsselrolle im Bereich der Georisiken und der Entstehung von Georessourcen. Viele dieser Prozesse sind bereits erforscht, während viele andere noch unbearbeitet oder unentdeckt sind. In dieser Arbeit wird die geodynamische numerische Modellierungssoftware ASPECT verwendet, um weitere Prozessinteraktionen an kontinentalen Plattengrenzen zu untersuchen. Im Gegensatz zu natürlichen Daten hat die geodynamische Modellierung den Vorteil, dass Prozesse direkt quantifiziert und alle Parameter über die gesamte Entwicklung einer Struktur analysiert werden können. Außerdem können Prozesse und Wechselwirkungen aus komplexen Zusammenhängen herausgefiltert werden, da der Modellierer volle Kontrolle über alle beteiligten Parameter hat. Um dem vereinfachenden Charakter von Modellen im Allgemeinen Rechnung zu tragen, habe ich mich für die Untersuchung allgemeiner geologischer Gegeben-heiten entschieden, wobei der Schwerpunkt auf den Prozessen und Wechselwirkungen liegt, anstatt eine bestimmte Region der Erde genau zu rekonstruieren. In Kapitel 2 werden 2D-Modelle von kontinentalen Rifts mit unterschiedlichen Krustendicken zwischen 20 und 50 km, sowie Extensionsgeschwindigkeiten im Bereich von 0,5-10 mm/Jahr verwendet, um eine Geschwindigkeitsgrenze für die Annahme eines thermischen Gleichgewichtszustandes zu erhalten, welcher üblicherweise verwendet wird, um die Temperaturfelder kontinentaler Rifts weltweit zu beschreiben. Da die Geschwindigkeit der tektonischen Deformation die der Wärmeleitung übersteigt, befindet sich das Temperaturfeld nicht im Gleichgewicht, sondern ist durch ein transientes, tektonisch induziertes Wärmestromsignal gekennzeichnet. Daraus ergibt sich, dass die Tiefen der Isothermen in den geodynamischen Entwicklungsmodellen flacher liegen, als es eine Temperaturverteilung im Gleichgewichtszustand vermuten ließe. Dies macht sich besondersbei tiefen Isothermen und narrow Rifts bemerkbar. In narrow Rifts begrenzt die Magnitude des transienten Temperatursignals eine fundierte Anwendbarkeit der thermischen Gleichgewichtsannahme auf Extensionsgeschwindigkeiten im Bereich von 0,5-2 mm/Jahr. Die Abschätzung des Temperaturfeldes der Erdkruste wirkt sich auf alle temperaturabhängigen Prozesse aus, von der Mineralzusammensetzung bis hin zur möglichen Nutzung eines geothermischen Reservoirs. In Kapitel 3 modelliere ich die Wechselwirkungen verschiedener Rheologien mit der Kinematik von Auffaltungen und Verwerfungen am Beispiel von fault-propagation folds im andinen Falten- und Überschiebungsgürtel. Die Entwicklung der Geschwindigkeitsfelder aus geodynamischen Modellen wird mit denen aus Trishear-Modellen für dieselbe Struktur verglichen. Während letztere nur geometrische und kinematische Charakteristika der Hauptverwerfung verwenden, erfassen die geodynamischen Modelle sowohl viskose, wie auch plastische und elastische Verformung im gesamten Modellbereich. Meine Forschung zeigt, dass beide Modelle für frühe und damit vergleichbar einfache Phasen der Auffaltung und Verwerfung gleichermaßen gut anwendbar sind, während die Ergebnisse für komplexere Situationen, in denen Verfor-mungen außerhalb der Hauptstörung sowie sekundäre Verwerfungen auftreten, auseinander gehen. Da fault-propagation folds eine wichtige Rolle bei der Bildung von Lagerstätten spielen können, ist Kenntnis zu Migrationswegen von Fluiden, zum Beispiel über Klüfte und Verwerfungen, für ihre Charakterisierung von entscheidender Bedeutung. Kapitel 4 befasst sich mit Biegungen von Transformstörungen sowie den Zusammenhängen zwischen Tektonik und Oberflächenprozessen. Insbesondere wird die tektonische Entwicklung der Verwerfung am Toten Meer behandelt, wo eine von Extension geprägte Biegung der Verwerfung das Pull-Apart-Becken des Toten Meeres bildet, während eine weiter nördlich gelegene von Kompression geprägte Biegung zur Bildung eines Gebirgszuges im Libanon führte. Für dieses Kapitel habe ich gekoppelte 3D Modelle der Geodynamik und Oberflächenentwicklung genutzt sowie beide Arten von Biegungen in einem Modell erforscht. Das Testen von verschiedenen, zufälligen Initialspannungsverteilungen zeigte, dass die Asymmetrie des Beckens eine Folge der Spannungslokalisierung ist. Außerdem habe ich durch Variation der Oberflächenprozesseffizienz herausgearbeitet, dass die Sedimentierung im Pull-Apart-Becken nicht nur die Beckentiefe steuert, sondern auch zu einer Strömungskomponente von Erdkrustenmaterial führt, die die Ablift an der von Kompression geprägten Biegung der Transformstörung erhöht. Anschließend stelle ich in Kapitel 5 die Implementierung von erdbebenähnlichem Verhalten unter Verwendung der Rate-and-State Gleichungen vor, welche die Grundlage für die Erweiterung der Komplexität von Plattengrenzenmodellen in ASPECT bildet. Obwohl Erdbeben auf einer relativ kurzen Zeitskala stattfinden, gibt es viele Wechselwirkungen zwischen dem seismischen Zyklus und den langen Zeitspannen anderer geodynamischer Prozesse. Unter anderem können der Spannungszustand der Kruste sowie das Vorhandensein von Fluiden oder Änderungen der Temperatur das Reibungsverhalten eines Störungssegmentes verändern. Meine Arbeit liefert die Grundlage für einen realistischen Aufbau der beteiligten Strukturen und Prozesse, der wichtig ist, um eine aussagekräftige Abschätzung der Erdbebengefährdung zu erhalten. Während diese Ergebnisse unser Verständnis der kontinentalen Plattengrenzen verbessern, kann die Weiterentwicklung geodynamischer Software dazu beitragen, in Zukunft weitere Prozesse und Wechselwirkungen aufzudecken. T2 - Geodynamische Modellierung von Prozessinteraktionen an kontinentalen Plattengrenzen KW - geodynamic modeling KW - plate boundaries KW - continental crust KW - heat flow KW - landscape evolution KW - geodynamische Modellierung KW - Plattengrenzen KW - kontinentale Kruste KW - Wärmediffusion KW - Oberflächenmodellierung Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-647500 ER - TY - THES A1 - Mirzaee, Zohreh T1 - Ecology and phylogeny of Mantodea of Iran and adjacent areas N2 - Mantodea, commonly known as mantids, have captivated researchers owing to their enigmatic behavior and ecological significance. This order comprises a diverse array of predatory insects, boasting over 2,400 species globally and inhabiting a wide spectrum of ecosystems. In Iran, the mantid fauna displays remarkable diversity, yet numerous facets of this fauna remain poorly understood, with a significant dearth of systematic and ecological research. This substantial knowledge gap underscores the pressing need for a comprehensive study to advance our understanding of Mantodea in Iran and its neighboring regions. The principal objective of this investigation was to delve into the ecology and phylogeny of Mantodea within these areas. To accomplish this, our research efforts concentrated on three distinct genera within Iranian Mantodea. These genera were selected due to their limited existing knowledge base and feasibility for in-depth study. Our comprehensive methodology encompassed a multifaceted approach, integrating morphological analysis, molecular techniques, and ecological observations. Our research encompassed a comprehensive revision of the genus Holaptilon, resulting in the description of four previously unknown species. This extensive effort substantially advanced our understanding of the ecological roles played by Holaptilon and refined its systematic classification. Furthermore, our investigation into Nilomantis floweri expanded its known distribution range to include Iran. By conducting thorough biological assessments, genetic analyses, and ecological niche modeling, we obtained invaluable insights into distribution patterns and genetic diversity within this species. Additionally, our research provided a thorough comprehension of the life cycle, behaviors, and ecological niche modeling of Blepharopsis mendica, shedding new light on the distinctive characteristics of this mantid species. Moreover, we contributed essential knowledge about parasitoids that infect mantid ootheca, laying the foundation for future studies aimed at uncovering the intricate mechanisms governing ecological and evolutionary interactions between parasitoids and Mantodea. N2 - Mantodea, gemeinhin als Gottesanbeterinnen bekannt, haben Forscher aufgrund ihres rätselhaften Verhaltens und ihrer ökologischen Bedeutung in ihren Bann gezogen. Diese Ordnung umfasst eine Vielzahl räuberischer Insekten, von denen es weltweit über 2 400 Arten gibt und die ein breites Spektrum von Ökosystemen bewohnen. Im Iran weist die Gottesanbeterinnen-Fauna eine bemerkenswerte Vielfalt auf, doch zahlreiche Aspekte dieser Fauna sind nach wie vor nur unzureichend erforscht, und es besteht ein erheblicher Mangel an systematischen und ökologischen Untersuchungen. Diese beträchtliche Wissenslücke unterstreicht den dringenden Bedarf an einer umfassenden Studie, um unser Verständnis der Mantodea im Iran und den angrenzenden Regionen zu verbessern. Das Hauptziel dieser Untersuchung bestand darin, die Ökologie und Phylogenie der Mantodea in diesen Gebieten zu erforschen. Um dies zu erreichen, konzentrierten sich unsere Forschungsarbeiten auf drei verschiedene Gattungen innerhalb der iranischen Mantodea. Diese Gattungen wurden aufgrund ihrer begrenzten Wissensbasis und ihrer Eignung für eingehende Untersuchungen ausgewählt. Unsere umfassende Methodik umfasste einen vielschichtigen Ansatz, der morphologische Analysen, molekulare Techniken und ökologische Beobachtungen einbezog. Unsere Forschung umfasste eine umfassende Revision der Gattung Holaptilon, die zur Beschreibung von vier bisher unbekannten Arten führte. Diese umfangreichen Arbeiten haben unser Verständnis der ökologischen Rolle von Holaptilon wesentlich verbessert und die systematische Einordnung der Gattung verfeinert. Darüber hinaus konnten wir durch die Untersuchung von Nilomantis floweri ihr bekanntes Verbreitungsgebiet auf den Iran ausweiten. Durch gründliche biologische Untersuchungen, genetische Analysen und ökologische Nischenmodellierung erhielten wir unschätzbare Einblicke in die Verbreitungsmuster und die genetische Vielfalt dieser Art. Darüber hinaus lieferten unsere Forschungsarbeiten ein umfassendes Verständnis des Lebenszyklus, der Verhaltensweisen und der ökologischen Nischenmodellierung von Blepharopsis mendica und warfen ein neues Licht auf die besonderen Merkmale dieser Mantidenart. Darüber hinaus lieferten wir wichtige Erkenntnisse über Parasitoide, die Ootheken von Gottesanbeterinnen befallen, und legten damit den Grundstein für künftige Studien, die darauf abzielen, die komplizierten Mechanismen aufzudecken, die die ökologischen und evolutionären Wechselwirkungen zwischen Parasitoiden und Mantodea steuern. T2 - Ökologie und Phylogenie der Mantodea des Iran und angrenzender Gebiete KW - Mantodea KW - Ecology KW - Phylogeny KW - Mantodea KW - Ökologie KW - Phylogeni Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-652739 ER - TY - THES A1 - Shigeyama, Jotaro T1 - Virtual reality at 1:1 scale in small physical spaces N2 - Virtual Reality (VR) leads to the highest level of immersion if presented using a 1:1 mapping of virtual space to physical space—also known as real walking. The advent of inexpensive consumer virtual reality (VR) headsets, all capable of running inside-out position tracking, has brought VR to the home. However, many VR applications do not feature full real walking, but instead, feature a less immersive space-saving technique known as instant teleportation. Given that only 0.3% of home users run their VR experiences in spaces more than 4m2, the most likely explanation is the lack of the physical space required for meaningful use of real walking. In this thesis, we investigate how to overcome this hurdle. We demonstrate how to run 1:1-mapped VR experiences in small physical spaces and we explore the trade-off between space and immersion. (1) We start with a space limit of 15cm. We present DualPanto, a device that allows (blind) VR users to experience the virtual world from a 1:1 mapped bird’s eye perspective—by leveraging haptics. (2) We then relax our space constraints to 50cm, which is what seated users (e.g., on an airplane or train ride) have at their disposal. We leverage the space to represent a standing user in 1:1 mapping, while only compressing the user’s arm movement. We demonstrate our 4 prototype VirtualArms at the example of VR experiences limited to arm movement, such as boxing. (3) Finally, we relax our space constraints further to 3m2 of walkable space, which is what 75% of home users have access to. As well- established in the literature, we implement real walking with the help of portals, also known as “impossible spaces”. While impossible spaces on such dramatic space constraints tend to degenerate into incomprehensible mazes (as demonstrated, for example, by “TraVRsal”), we propose plausibleSpaces: presenting meaningful virtual worlds by adapting various visual elements to impossible spaces. Our techniques push the boundary of spatially meaningful VR interaction in various small spaces. We see further future challenges for new design approaches to immersive VR experiences for the smallest physical spaces in our daily life. N2 - Virtuelle Realität (VR) erzeugt die größte Immersion, wenn sie mit einer 1:1-Abbildung des virtuellen Raums auf den physischen Raum verwendet wird – dem sogenannten Real Walking. Das Aufkommen preiswerter VR-Headsets, die alle zu Inside-Out Positionstracking fähig sind, hat VR in die Haushalte von Heimanwendern gebracht. Viele VR-Anwendungen ermöglichen jedoch kein Real Walking, sondern bieten stattdessen eine weniger immersive, raumsparende Technik an, die als Instant Teleportation bekannt ist. In Anbetracht der Tatsache, dass nur 0,3% der Nutzer ihre VR-Anwendungen in Räumen von mehr als 4m² verwenden, ist die wahrscheinlichste Erklärung dafür der Mangel an physischem Raum, der für eine sinnvolle Nutzung des Real Walking erforderlich wäre. In dieser Arbeit untersuchen wir, wie diese Hürde überwunden werden kann. Wir zeigen, wie man 1:1 skalierte VR-Interaktionen in kleinen Räumen durchführen kann, und wir erforschen den Kompromiss zwischen der verfügbaren Menge an Raum und der Immersion. (1) Wir beginnen mit einer Raumbegrenzung von 15cm. Wir stellen DualPanto vor, ein Gerät, welches (blinden) VR-Benutzern ermöglicht, die virtuelle Welt aus einer 1:1 skalierten Vogelperspektive zu erleben indem es Haptik verwendet. (2) Dann lockern wir unsere räumliche Beschränkung auf 50 cm, ein Raum der sitzenden Benutzern (z.B. in einem Flugzeug oder Zug) zur Verfügung steht. Wir nutzen diesen Raum, um einen stehenden Benutzer in einer 1:1-Abbildung darzustellen, während wir nur die Armbewegung des Benutzers erfassen. Wir demonstrieren unseren Prototyp VirtualArms am Beispiel von VR-Erfahrungen, die auf Armbewegungen beschränkt sind, wie z.B. einem Boxkampf. (3) Schließlich lockern wir unsere räumlichen Beschränkungen weiter auf 3m² begehbare Fläche, welche 75% der Heimanwender zur Verfügung steht. Wie bereits in der Literatur etabliert, implementieren wir Real Walking mit Hilfe von Portalen, auch bekannt als Impossible Spaces. Während Impossible Spaces bei solch dramatisch begrenzten Platzverhältnissen dazu neigen, zu unverständlichen Labyrinthen zu werden (wie z.B. bei TraVRsal), schlagen wir plausibleSpaces vor: die Präsentation räumlich bedeutsamer virtueller Welten durch die Anpassung verschiedener visueller Elemente an Impossible Spaces. Unsere Techniken verschieben die Grenzen der räumlich bedeutsamen VR-Interaktion in verschiedenen kleinen Räumen. Als zukünftige Herausforderung sehen wir die Entwicklung neuer Designansätze für immersive VR-Erfahrungen für die kleinsten physischen Räume in unserem Alltag. T2 - Virtuelle Realität im Maßstab 1:1 in kleinem physischen Raum KW - virtual reality KW - haptics KW - human-computer interaction KW - Haptik KW - Mensch-Computer-Interaktion KW - Virtuelle Realität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649000 ER - TY - BOOK A1 - Juiz, Carlos A1 - Bermejo, Belen A1 - Calle, Alejandro A1 - Sidorova, Julia A1 - Lundberg, Lars A1 - Weidmann, Vera A1 - Lowitzki, Leon A1 - Mirtschin, Marvin A1 - Hoorn, André van A1 - Frank, Markus A1 - Schulz, Henning A1 - Stojanovic, Dragan A1 - Stojanovic, Natalija A1 - Stojnev Ilic, Aleksandra A1 - Friedrich, Tobias A1 - Lenzner, Pascal A1 - Weyand, Christopher A1 - Wagner, Markus A1 - Plauth, Max A1 - Polze, Andreas A1 - Nowicki, Marek A1 - Seth, Sugandh A1 - Kaur Chahal, Kuljit A1 - Singh, Gurwinder A1 - Speth, Sandro A1 - Janes, Andrea A1 - Camilli, Matteo A1 - Ziegler, Erik A1 - Schmidberger, Marcel A1 - Pörschke, Mats A1 - Bartz, Christian A1 - Lorenz, Martin A1 - Meinel, Christoph A1 - Beilich, Robert A1 - Bertazioli, Dario A1 - Carlomagno, Cristiano A1 - Bedoni, Marzia A1 - Messina, Vincenzina ED - Meinel, Christoph ED - Polze, Andreas ED - Beins, Karsten ED - Strotmann, Rolf ED - Seibold, Ulrich ED - Rödszus, Kurt ED - Müller, Jürgen ED - Sommer, Jürgen T1 - HPI Future SOC Lab BT - Proceedings 2020 T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam N2 - The “HPI Future SOC Lab” is a cooperation of the Hasso Plattner Institute (HPI) and industry partners. Its mission is to enable and promote exchange and interaction between the research community and the industry partners. The HPI Future SOC Lab provides researchers with free of charge access to a complete infrastructure of state of the art hard and software. This infrastructure includes components, which might be too expensive for an ordinary research environment, such as servers with up to 64 cores and 2 TB main memory. The offerings address researchers particularly from but not limited to the areas of computer science and business information systems. Main areas of research include cloud computing, parallelization, and In-Memory technologies. This technical report presents results of research projects executed in 2020. Selected projects have presented their results on April 21st and November 10th 2020 at the Future SOC Lab Day events. N2 - Das Future SOC Lab am HPI ist eine Kooperation des Hasso-Plattner-Instituts mit verschiedenen Industriepartnern. Seine Aufgabe ist die Ermöglichung und Förderung des Austausches zwischen Forschungsgemeinschaft und Industrie. Am Lab wird interessierten Wissenschaftlern eine Infrastruktur von neuester Hard- und Software kostenfrei für Forschungszwecke zur Verfügung gestellt. Dazu zählen teilweise noch nicht am Markt verfügbare Technologien, die im normalen Hochschulbereich in der Regel nicht zu finanzieren wären, bspw. Server mit bis zu 64 Cores und 2 TB Hauptspeicher. Diese Angebote richten sich insbesondere an Wissenschaftler in den Gebieten Informatik und Wirtschaftsinformatik. Einige der Schwerpunkte sind Cloud Computing, Parallelisierung und In-Memory Technologien. In diesem Technischen Bericht werden die Ergebnisse der Forschungsprojekte des Jahres 2020 vorgestellt. Ausgewählte Projekte stellten ihre Ergebnisse am 21. April und 10. November 2020 im Rahmen des Future SOC Lab Tags vor. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 159 KW - Future SOC Lab KW - research projects KW - multicore architectures KW - in-memory technology KW - cloud computing KW - machine learning KW - artifical intelligence KW - Future SOC Lab KW - Forschungsprojekte KW - Multicore Architekturen KW - In-Memory Technologie KW - Cloud Computing KW - maschinelles Lernen KW - künstliche Intelligenz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-598014 SN - 978-3-86956-565-1 SN - 1613-5652 SN - 2191-1665 IS - 159 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bryant, Seth T1 - Aggregation and disaggregation in flood risk models T1 - Aggregation und Disaggregation in Hochwasserrisikomodellen N2 - Floods continue to be the leading cause of economic damages and fatalities among natural disasters worldwide. As future climate and exposure changes are projected to intensify these damages, the need for more accurate and scalable flood risk models is rising. Over the past decade, macro-scale flood risk models have evolved from initial proof-of-concepts to indispensable tools for decision-making at global-, nationaland, increasingly, the local-level. This progress has been propelled by the advent of high-performance computing and the availability of global, space-based datasets. However, despite such advancements, these models are rarely validated and consistently fall short of the accuracy achieved by high-resolution local models. While capabilities have improved, significant gaps persist in understanding the behaviours of such macro-scale models, particularly their tendency to overestimate risk. This dissertation aims to address such gaps by examining the scale transfers inherent in the construction and application of coarse macroscale models. To achieve this, four studies are presented that, collectively, address exposure, hazard, and vulnerability components of risk affected by upscaling or downscaling. The first study focuses on a type of downscaling where coarse flood hazard inundation grids are enhanced to a finer resolution. While such inundation downscaling has been employed in numerous global model chains, ours is the first study to focus specifically on this component, providing an evaluation of the state of the art and a novel algorithm. Findings demonstrate that our novel algorithm is eight times faster than existing methods, offers a slight improvement in accuracy, and generates more physically coherent flood maps in hydraulically challenging regions. When applied to a case study, the algorithm generated a 4m resolution inundation map from 30m hydrodynamic model outputs in 33 s, a 60-fold improvement in runtime with a 25% increase in RMSE compared with direct hydrodynamic modelling. All evaluated downscaling algorithms yielded better accuracy than the coarse hydrodynamic model when compared to observations, demonstrating similar limits of coarse hydrodynamic models reported by others. The substitution of downscaling into flood risk model chains, in place of high-resolution modelling, can drastically improve the lead time of impactbased forecasts and the efficiency of hazard map production. With downscaling, local regions could obtain high resolution local inundation maps by post-processing a global model without the need for expensive modelling or expertise. The second study focuses on hazard aggregation and its implications for exposure, investigating implicit aggregations commonly used to intersect hazard grids with coarse exposure models. This research introduces a novel spatial classification framework to understand the effects of rescaling flood hazard grids to a coarser resolution. The study derives closed-form analytical solutions for the location and direction of bias from flood grid aggregation, showing that bias will always be present in regions near the edge of inundation. For example, inundation area will be positively biased when water depth grids are aggregated, while volume will be negatively biased when water elevation grids are aggregated. Extending the analysis to effects of hazard aggregation on building exposure, this study shows that exposure in regions at the edge of inundation are an order of magnitude more sensitive to aggregation errors than hazard alone. Among the two aggregation routines considered, averaging water surface elevation grids better preserved flood depths at buildings than averaging of water depth grids. The study provides the first mathematical proof and generalizeable treatment of flood hazard grid aggregation, demonstrating important mechanisms to help flood risk modellers understand and control model behaviour. The final two studies focus on the aggregation of vulnerability models or flood damage functions, investigating the practice of applying per-asset functions to aggregate exposure models. Both studies extend Jensen’s inequality, a well-known 1906 mathematical proof, to demonstrate how the aggregation of flood damage functions leads to bias. Applying Jensen’s proof in this new context, results show that typically concave flood damage functions will introduce a positive bias (overestimation) when aggregated. This behaviour was further investigated with a simulation experiment including 2 million buildings in Germany, four global flood hazard simulations and three aggregation scenarios. The results show that positive aggregation bias is not distributed evenly in space, meaning some regions identified as “hot spots of risk” in assessments may in fact just be hot spots of aggregation bias. This study provides the first application of Jensen’s inequality to explain the overestimates reported elsewhere and advice for modellers to minimize such artifacts. In total, this dissertation investigates the complex ways aggregation and disaggregation influence the behaviour of risk models, focusing on the scale-transfers underpinning macro-scale flood risk assessments. Extending a key finding of the flood hazard literature to the broader context of flood risk, this dissertation concludes that all else equal, coarse models overestimate risk. This dissertation goes beyond previous studies by providing mathematical proofs for how and where such bias emerges in aggregation routines, offering a mechanistic explanation for coarse model overestimates. It shows that this bias is spatially heterogeneous, necessitating a deep understanding of how rescaling may bias models to effectively reduce or communicate uncertainties. Further, the dissertation offers specific recommendations to help modellers minimize scale transfers in problematic regions. In conclusion, I argue that such aggregation errors are epistemic, stemming from choices in model structure, and therefore hold greater potential and impetus for study and mitigation. This deeper understanding of uncertainties is essential for improving macro-scale flood risk models and their effectiveness in equitable, holistic, and sustainable flood management. N2 - Hochwasser sind weiterhin die größte Ursache für wirtschaftliche Schäden undTodesopfer durch Naturkatastrophen weltweit. Da prognostiziert wird, dass künftige Klima- und Expositionsänderungen diese Schäden noch verstärken werden, steigt der Bedarf an genaueren und skalierbaren Hochwasserrisikomodellen. In den letzten zehn Jahren haben sich makroskalige Hochwasserrisikomodelle von ersten Machbarkeitsversuchen zu unverzichtbaren Instrumenten für Entscheidungsträger auf globaler, nationaler und zunehmend auch lokaler Ebene entwickelt. Dieser Fortschritt wurde weitgehend durch das Aufkommen von Hochleistungsrechnern und dieVerfügbarkeit globaler,weltraumgestützter Datensätze vorangetrieben. Trotz dieser Fortschrittewerden diese Modelle jedoch nur selten validiert und bleiben durchweg hinter der Genauigkeit zurück, die von hochauflösenden lokalen Modellen erreicht wird. Obwohl sich die Möglichkeiten verbessert haben, gibt es immer noch erhebliche Lücken im Verständnis der Skalenübertragungen, die typischerweise in großskaligen Modellen verwendet werden, insbesondere zu deren Tendenz zur Überschätzung von Risiken. Diese Dissertation zielt darauf ab, diese Lücken zu schließen, indem sie diese Skalentransfers untersucht, die mit der Konstruktion und Anwendung solcher groben makroskaligen Modelle einhergehen. Zu diesem Zweck werden vier Studien vorgestellt, die gemeinsam die Expositions- , Gefährdungs- und Vulnerabilitätskomponenten des Risikos betrachten, welche durch Upscaling oder Downscaling beeinflusst werden. Die erste Studie konzentriert sich auf eine Art von Downscaling, bei dem grobe Überschwemmungsraster auf eine feinere Auflösung umskaliert werden. Eine solche Herabskalierung von Überschwemmungsdaten wurde zwar bereits in zahlreichen globalen Modellketten eingesetzt, doch ist unsere Studie die erste, die sich speziell auf diese Komponente konzentriert und eine Bewertung des Standes der Technik sowie einen neuartigen Algorithmus liefert. Die Ergebnisse zeigen, dass unser neuartiger Algorithmus achtmal schneller ist als bestehende Methoden, eine leichte Verbesserung der Genauigkeit bietet und physikalisch kohärentere Überschwemmungskarten in hydraulisch anspruchsvollen Regionen erzeugt. Bei der Anwendung in einer Fallstudie erzeugte der Algorithmus eine Überschwemmungskarte mit einer Auflösung von 4 Metern aus den Ergebnissen eines 30-metrigen hydrodynamischen Modells in 33 Sekunden, was eine 60-fache Verbesserung der Laufzeit bei einem 25-prozentigen Anstieg des RMSE im Vergleich zur direkten hydrodynamischen Modellierung darstellt. Alle bewerteten Downscaling-Algorithmen erbrachten – im Vergleich zu Messergebnissen – eine bessere Genauigkeit als das grobe hydrodynamische Modell, was die Grenzen der groben hydrodynamischen Modelle aus früheren Studien bestätigt. Der Einsatz von Downscaling in Hochwasserrisikomodellketten anstelle von hochauflösender Modellierung kann die Vorlaufzeit von auswirkungsbasierten Vorhersagen und die Effizienz der Erstellung von Gefahrenkarten drastisch verbessern. Downscaling könnte es regional erlauben, hochauflösende lokale Überschwemmungskarten aus einem globalen Modell zu generieren, ohne dass teure Modellierung oder Fachwissen erforderlich sind. Die zweite Studie befasst sich mit der Aggregation von Gefahren und deren Auswirkungen auf die Exposition, wobei implizite Aggregationen untersucht werden, die üblicherweise Verwendung finden, wenn Gefahrenraster mit groben Expositionsmodellen verknüpft werden. In dieser Studie wird ein neuartiges räumliches Klassifizierungsframework eingeführt, um die Auswirkungen der Umskalierung von Hochwassergefahrenrastern auf eine gröbere Auflösung zu verstehen. Die Studie leitet analytische Lösungen in geschlossener Form für die räumliche Ausprägung und die Richtung des systematischen Fehlers durch die Aggregation von Überschwemmungsrastern ab und zeigt, dass dieser Fehler in Regionen nahe der Überschwemmungsgrenze immer auftritt. So wird beispielsweise die Überschwemmungsfläche positiv beeinflusst, wenn Einstautiefenraster aggregiert werden, während das Hochwasservolumen negativ beeinflusst wird, wenn Wasserhöhenraster aggregiert werden. Bei der Ausweitung der Analyse auf die Auswirkungen der Gefahrenaggregation auf die Gebäudeexposition zeigt diese Studie, dass die Exposition in Regionen am Rande der Überschwemmung um eine Größenordnung empfindlicher auf Aggregationsfehler reagiert als die Hochwassergefahr allein. Von den beiden betrachteten Aggregationsroutinen bewahrte die Mittelung von Wasseroberflächen-Höhenrastern die Überschwemmungstiefen an Gebäuden besser als die Mittelung von Einstautiefenrastern. Die Studie liefert den ersten mathematischen Beweis und eine verallgemeinerungsfähige Aggregationsmethode für Hochwassergefahrenraster und zeigt wichtige Mechanismen auf, die Hochwasserrisikomodellierern helfen können, das Modellverhalten zu verstehen und zu kontrollieren. Die letzten beiden Studien konzentrieren sich auf die Aggregation von Vulnerabilitätsmodellen oder Hochwasserschadensfunktionen und untersuchen die Praxis der Anwendung von gebäudespezifischen Funktionen auf aggregierte Expositionsmodelle. Beide Studien erweitern die Jensen’sche Ungleichung, einen bekannten mathematischen Beweis, um zu zeigen, wie die Aggregation von Flutschadensfunktionen zu systematischen Fehlern führt. Die Anwendung von Jensens Beweis aus dem Jahr 1906 in diesem neuen Kontext zeigt, dass typischerweise konkave Hochwasserschadensfunktionen zu einer systematischen Überschätzung führen, wenn sie aggregiert werden. Dieses Verhalten wurde anhand eines Simulationsexperiments mit 2 Millionen Gebäuden in Deutschland, vier globalen Hochwasserrisikosimulationen und drei Aggregationsszenarien weiter untersucht. Die Ergebnisse zeigen, dass die positive Aggregationsverzerrung nicht gleichmäßig im Raum verteilt ist, was bedeutet, dass einige Regionen, die in den Bewertungen als „Hochrisikogebiete“ identifiziert wurden, in Wirklichkeit bloß „Hochfehlergebiet“ seien könnten. Dies ist die erste Anwendung der Jensen’schen Ungleichung zur Erklärung der Überschätzungen, die in anderen Studien für grobskalige Hochwasserrisikomodelle berichtet wurden. Diese Dissertation untersucht die komplexe Art und Weise, wie Aggregation und Disaggregation das Verhalten von Risikomodellen beeinflussen, und konzentriert sich dabei auf die Skalentransfers, die den makroskaligen Hochwasserrisikobewertungen zugrunde liegen. Indem sie eine wichtige Erkenntnis aus der Literatur zur Hochwassergefahr auf den breiteren Kontext des Hochwasserrisikos ausweitet, zeigt diese Dissertation, dass grobe Modelle das Risiko überschätzen, wenn alle anderen Faktoren gleich sind. Diese Dissertation geht über frühere Studien hinaus, indem sie mathematische Beweise dafür liefert, wie und wo systematische Fehler in Aggregationsroutinen entstehen, und bietet eine mechanistische Erklärung für die Überschätzung in groben Modellen. Es wird gezeigt, dass diese Verzerrung räumlich heterogen ist, was ein tiefes Verständnis der Art und Weise erfordert, wie die Umskalierung Modelle verzerren kann, um Unsicherheiten effektiv zu reduzieren oder zu kommunizieren. Die Dissertation enthält spezifische Empfehlungen, die Modellierern helfen sollen, Skalenübertragungen in problematischen Regionen zu minimieren. Abschließend argumentiere ich, dass solche Aggregationsfehler epistemischer Natur sind, da sie aus der Wahl der Modellstruktur resultieren, und daher ein größeres Potenzial und einen stärkeren Anstoß zur Verbesserung bieten sollten. Dieses tiefere Verständnis von Unsicherheiten ist unerlässlich, wenn makroskalige Hochwasserrisikomodelle ihr volles Potenzial als Werkzeuge für ein gerechtes, ganzheitliches und nachhaltiges Zusammenleben mit extremen Überschwemmungen entfalten sollen. KW - flood risk KW - uncertainty KW - models KW - GIS KW - Hochwasserrisiko KW - Unsicherheit KW - Modelle KW - GIS Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-650952 ER -