TY - THES A1 - Schröder, Jakob T1 - Fundamentals of diffraction-based residual stress and texture analysis of laser powder bed fused Inconel 718 T1 - Grundlagen der beugungsbasierten Eigenspannungs- und Texturanalyse von laserstrahlgeschmolzenem Inconel 718 N2 - Additive manufacturing (AM) processes enable the production of metal structures with exceptional design freedom, of which laser powder bed fusion (PBF-LB) is one of the most common. In this process, a laser melts a bed of loose feedstock powder particles layer-by-layer to build a structure with the desired geometry. During fabrication, the repeated melting and rapid, directional solidification create large temperature gradients that generate large thermal stress. This thermal stress can itself lead to cracking or delamination during fabrication. More often, large residual stresses remain in the final part as a footprint of the thermal stress. This residual stress can cause premature distortion or even failure of the part in service. Hence, knowledge of the residual stress field is critical for both process optimization and structural integrity. Diffraction-based techniques allow the non-destructive characterization of the residual stress fields. However, such methods require a good knowledge of the material of interest, as certain assumptions must be made to accurately determine residual stress. First, the measured lattice plane spacings must be converted to lattice strains with the knowledge of a strain-free material state. Second, the measured lattice strains must be related to the macroscopic stress using Hooke's law, which requires knowledge of the stiffness of the material. Since most crystal structures exhibit anisotropic material behavior, the elastic behavior is specific to each lattice plane of the single crystal. Thus, the use of individual lattice planes in monochromatic diffraction residual stress analysis requires knowledge of the lattice plane-specific elastic properties. In addition, knowledge of the microstructure of the material is required for a reliable assessment of residual stress. This work presents a toolbox for reliable diffraction-based residual stress analysis. This is presented for a nickel-based superalloy produced by PBF-LB. First, this work reviews the existing literature in the field of residual stress analysis of laser-based AM using diffraction-based techniques. Second, the elastic and plastic anisotropy of the nickel-based superalloy Inconel 718 produced by PBF-LB is studied using in situ energy dispersive synchrotron X-ray and neutron diffraction techniques. These experiments are complemented by ex situ material characterization techniques. These methods establish the relationship between the microstructure and texture of the material and its elastic and plastic anisotropy. Finally, surface, sub-surface, and bulk residual stress are determined using a texture-based approach. Uncertainties of different methods for obtaining stress-free reference values are discussed. The tensile behavior in the as-built condition is shown to be controlled by texture and cellular sub-grain structure, while in the heat-treated condition the precipitation of strengthening phases and grain morphology dictate the behavior. In fact, the results of this thesis show that the diffraction elastic constants depend on the underlying microstructure, including texture and grain morphology. For columnar microstructures in both as-built and heat-treated conditions, the diffraction elastic constants are best described by the Reuss iso-stress model. Furthermore, the low accumulation of intergranular strains during deformation demonstrates the robustness of using the 311 reflection for the diffraction-based residual stress analysis with columnar textured microstructures. The differences between texture-based and quasi-isotropic approaches for the residual stress analysis are shown to be insignificant in the observed case. However, the analysis of the sub-surface residual stress distributions show, that different scanning strategies result in a change in the orientation of the residual stress tensor. Furthermore, the location of the critical sub-surface tensile residual stress is related to the surface roughness and the microstructure. Finally, recommendations are given for the diffraction-based determination and evaluation of residual stress in textured additively manufactured alloys. N2 - Additive Fertigungsverfahren (AM) ermöglichen die Herstellung von Metallstrukturen mit außergewöhnlicher Gestaltungsfreiheit, wobei das pulverbettbasierte Laserstrahlschmelzen (PBF-LB) eines der gängigsten dieser Verfahren darstellt. In diesem Verfahren schmilzt ein Laser ein Pulverbett schichtweise auf, um ein Bauteil mit der gewünschten Geometrie zu erzeugen. Während der Fertigung kommt es aufgrund des wiederholten Aufschmelzens und der schnellen, gerichteten Erstarrung zu hohen Temperaturgradienten, die hohe thermische Spannungen erzeugen. Einerseits können diese thermischen Spannungen während des Fertigungsprozesses zur Rissbildung oder zur Ablösung des Bauteils führen. Häufiger jedoch verbleiben große Eigenspannungen im gefertigten Bauteil als Folge der thermischen Spannungen. Diese Eigenspannungen begünstigen die Verzerrung der Bauteile und können sogar ihr vorzeitiges Versagen im Betrieb verursachen. Daher ist die Kenntnis der Eigenspannungsverteilung im Bauteil sowohl für die Prozessoptimierung als auch die strukturelle Integrität bedeutend. Beugungsbasierte Verfahren ermöglichen die zerstörungsfreie Bestimmung des Eigenspannungsfeldes. Diese Verfahren erfordern jedoch eine vorhergehende Kenntnis der Materialeigenschaften, da gewisse Annahmen getroffen werden müssen, um die Eigenspannungen genau bestimmen zu können. Zunächst müssen aus den gemessenen Abständen der Gitterebenen Gitterdehnungen berechnet werden, wozu der dehnungsfreie Referenzzustand bekannt sein muss. Weiterhin müssen die Gitterdehnungen über das Hookesche Gesetz, unter Bezugnahme der elastischen Eigenschaften, in Spannungen überführt werden. Da die meisten Kristallstrukturen durch ein anisotropes Verhalten gekennzeichnet sind, ist ihr elastisches Verhalten für jede Gitterebene spezifisch. Deshalb bedarf es bei der Nutzung monochromatischer Strahlung zur beugungsbasierten Eigenspannungsbestimmung der Kenntnis der gitterebenenspezifischen elastischen Eigenschaften. Zusätzlich ist das Wissen über die Mikrostruktur des Materials unabdingbar für eine zuverlässige Bestimmung der Eigenspannungen. Die vorliegende Arbeit präsentiert eine Reihe von Bedingungen, die für eine zuverlässige beugungsbasierte Eigenspannungsanalyse notwendig sind. Dies wird exemplarisch an einer mittels PBF-LB gefertigten Nickelbasis Superlegierung gezeigt. Einleitend wird ein Überblick der Literatur im Bereich der beugungsbasierten Eigenspannungsanalyse mit Bezug zur additiven Fertigung gegeben. Anschließend wird die elastische und plastische Anisotropie der mittels PBF-LB gefertigten Nickelbasis Superlegierung Inconel 718 durch in situ energiedispersive Synchrotron Röntgen- und Neutronenbeugung charakterisiert. Diese Methoden werden durch ex situ Untersuchungsverfahren ergänzt. So wird die Beziehung zwischen der Mikrostruktur und der Textur zur elastischen und plastischen Anisotropie hergestellt. Abschließend werden die Oberflächen-, oberflächennahen-, sowie Volumeneigenspannungen in einem texturbasierten Ansatz bestimmt. Dabei werden Unsicherheiten verschiedener Methoden zur Bestimmung der spannungsfreien Referenz diskutiert. Das mechanische Verhalten unter Zugbelastung des as-built Zustandes ist dabei durch die Textur und die zelluläre Substruktur bedingt, während es im wärmebehandelten Zustand vom Ausscheidungszustand und der geänderten Kornmorphologie bestimmt wird. Die Ergebnisse dieser Arbeit zeigen, dass die diffraktionselastischen Konstanten von der zugrundeliegenden Mikrostruktur abhängen. Für die kolumnaren Mikrostrukturen, egal ob im as-built oder wärmebehandeltem Zustand, werden die diffraktionselastischen Konstanten am besten durch die Reuss Annahme homogener Spannung beschrieben. Darüber hinaus zeigt die geringe Akkumulation intergranularer Dehnung des 311 Reflexes seine Robustheit für die beugungsbasierte Eigenspannungsanalyse. Im vorhandenen Fall ist der Unterschied zwischen texturbasierten und quasiisotropen Ansätzen zur Eigenspannungsanalyse unbedeutend. Oberflächennahe Eigenspannungsanalysen zeigen jedoch, dass verschiedene Scanstrategien zu einer Änderung in der Ausrichtung des Eigenspannungstensors führen. Weiterhin zeigt die Lage der kritischen oberflächennahen Zugeigenspannungen eine Abhängigkeit zur Oberflächenrauheit und dem Gefüge. Abschließend werden Empfehlungen zur beugungsbasierten Ermittlung und Bewertung von Eigenspannungen in texturierten additiv gefertigten Legierungen gegeben. KW - residual stress KW - diffraction KW - texture KW - mechanical behavior KW - in-situ testing KW - laser powder bed fusion KW - additive manufacturing KW - electron backscatter diffraction KW - diffraction elastic constants KW - Inconel 718 KW - Inconel 718 KW - additive Fertigung KW - Diffraktion KW - diffraktionselastische Konstanten KW - Elektronenrückstreubeugung KW - In-situ Experimente KW - Laserstrahlschmelzen KW - mechanisches Verhalten KW - Eigenspannung KW - Textur Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621972 ER - TY - THES A1 - Zhou, Xiangqian T1 - Modeling of spatially distributed nitrate transport to investigate the effects of drought and river restoration in the Bode catchment, Central Germany N2 - The European Water Framework Directive (WFD) has identified river morphological alteration and diffuse pollution as the two main pressures affecting water bodies in Europe at the catchment scale. Consequently, river restoration has become a priority to achieve the WFD's objective of good ecological status. However, little is known about the effects of stream morphological changes, such as re-meandering, on in-stream nitrate retention at the river network scale. Therefore, catchment nitrate modeling is necessary to guide the implementation of spatially targeted and cost-effective mitigation measures. Meanwhile, Germany, like many other regions in central Europe, has experienced consecutive summer droughts from 2015-2018, resulting in significant changes in river nitrate concentrations in various catchments. However, the mechanistic exploration of catchment nitrate responses to changing weather conditions is still lacking. Firstly, a fully distributed, process-based catchment Nitrate model (mHM-Nitrate) was used, which was properly calibrated and comprehensively evaluated at numerous spatially distributed nitrate sampling locations. Three calibration schemes were designed, taking into account land use, stream order, and mean nitrate concentrations, and they varied in spatial coverage but used data from the same period (2011–2019). The model performance for discharge was similar among the three schemes, with Nash-Sutcliffe Efficiency (NSE) scores ranging from 0.88 to 0.92. However, for nitrate concentrations, scheme 2 outperformed schemes 1 and 3 when compared to observed data from eight gauging stations. This was likely because scheme 2 incorporated a diverse range of data, including low discharge values and nitrate concentrations, and thus provided a better representation of within-catchment heterogenous. Therefore, the study suggests that strategically selecting gauging stations that reflect the full range of within-catchment heterogeneity is more important for calibration than simply increasing the number of stations. Secondly, the mHM-Nitrate model was used to reveal the causal relations between sequential droughts and nitrate concentration in the Bode catchment (3200 km2) in central Germany, where stream nitrate concentrations exhibited contrasting trends from upstream to downstream reaches. The model was evaluated using data from six gauging stations, reflecting different levels of runoff components and their associated nitrate-mixing from upstream to downstream. Results indicated that the mHM-Nitrate model reproduced dynamics of daily discharge and nitrate concentration well, with Nash-Sutcliffe Efficiency ≥ 0.73 for discharge and Kling-Gupta Efficiency ≥ 0.50 for nitrate concentration at most stations. Particularly, the spatially contrasting trends of nitrate concentration were successfully captured by the model. The decrease of nitrate concentration in the lowland area in drought years (2015-2018) was presumably due to (1) limited terrestrial export loading (ca. 40% lower than that of normal years 2004-2014), and (2) increased in-stream retention efficiency (20% higher in summer within the whole river network). From a mechanistic modelling perspective, this study provided insights into spatially heterogeneous flow and nitrate dynamics and effects of sequential droughts, which shed light on water-quality responses to future climate change, as droughts are projected to be more frequent. Thirdly, this study investigated the effects of stream restoration via re-meandering on in-stream nitrate retention at network-scale in the well-monitored Bode catchment. The mHM-Nitrate model showed good performance in reproducing daily discharge and nitrate concentrations, with median Kling-Gupta values of 0.78 and 0.74, respectively. The mean and standard deviation of gross nitrate retention efficiency, which accounted for both denitrification and assimilatory uptake, were 5.1 ± 0.61% and 74.7 ± 23.2% in winter and summer, respectively, within the stream network. The study found that in the summer, denitrification rates were about two times higher in lowland sub-catchments dominated by agricultural lands than in mountainous sub-catchments dominated by forested areas, with median ± SD of 204 ± 22.6 and 102 ± 22.1 mg N m-2 d-1, respectively. Similarly, assimilatory uptake rates were approximately five times higher in streams surrounded by lowland agricultural areas than in those in higher-elevation, forested areas, with median ± SD of 200 ± 27.1 and 39.1 ± 8.7 mg N m-2 d-1, respectively. Therefore, restoration strategies targeting lowland agricultural areas may have greater potential for increasing nitrate retention. The study also found that restoring stream sinuosity could increase net nitrate retention efficiency by up to 25.4 ± 5.3%, with greater effects seen in small streams. These results suggest that restoration efforts should consider augmenting stream sinuosity to increase nitrate retention and decrease nitrate concentrations at the catchment scale. N2 - Die Europäische Wasserrahmenrichtlinie hat die morphologischen Veränderungen der Flüsse und die diffuse Verschmutzung als die Hauptprobleme der Gewässer in Europa identifiziert. Um diese Probleme anzugehen, hat die Renaturierung von Fließgewässern hohe Priorität. Es ist jedoch nur wenig darüber bekannt, wie sich Veränderungen der Flussform, wie z. B. die Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässer auswirken. Deutschland hat in den letzten Jahren Dürreperioden erlebt, die zu Veränderungen der Nitratkonzentration in den Fließgewässern geführt haben. Es gibt jedoch nur wenig Erkenntnisse darüber, wie sich diese Dürreperioden auf die Nitratkonzentration auswirken. Zur Untersuchung dieser Einflüsse kann eine Modellierung des Nitrat-Transports und -Rückhalts in Einzugsgebieten wichtige Hinweise zu wirksamen Reduzierungsmaßnahmen liefern. In dieser Studie wurde ein prozessbasiertes hydrologisches Wasserqualitätsmodell (mHM-Nitrate) verwendet, um die Nitratdynamik im Einzugsgebiet der Bode (3200 km2) zu simulieren. Das Modell wurde anhand von Daten aus verschiedenen Teileinzugsgebieten kalibriert und bewertet. Es wurden drei Kalibrierungsvarianten entwickelt, die die Flächennutzung, die Ordnung der Fließgewässer und die mittleren Nitratkonzentrationen mit unterschiedlichem Detaillierungsgrad berücksichtigten. Die Modellierungsgüte für den Abfluss war bei allen drei Kalibrierungsvarianten ähnlich, während sich bei den Nitratkonzentrationen deutliche Unterschiede ergaben. Die Studie zeigte, dass die Auswahl von Messstationen, die die charakteristischen Gebietseigenschaften widerspiegeln, für die Nitrat-Kalibrierung wichtiger ist als die reine Anzahl der Messstationen. Das Modell wurde auch verwendet, um die Beziehung zwischen Dürreperioden und der Nitratdynamik im Bodegebiet zu untersuchen. Das Modell gab die Dynamik von Abfluss und Nitrat sehr gut wider und erfasste hierbei auch die räumlichen Unterschiede in den Nitratkonzentrationen sehr gut. Die Studie ergab, dass Dürreperioden zu niedrigeren Nitratkonzentrationen in den landwirtschaftlich genutzten Gebieten im Tiefland führten, was auf einen geringeren terrestrischen Export und einen erhöhten Rückhalt in den Fließgewässern zurückzuführen war. Die Untersuchung liefert Erkenntnisse über die Auswirkungen von Dürren auf den Nitrataustrag, was für das Verständnis der Auswirkungen des künftigen Klimawandels wichtig ist. Darüber hinaus untersuchte die Studie die Auswirkungen der Renaturierung von Fließgewässern, insbesondere der Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässernetz. Die Untersuchung zeigte, dass der gewässerinterne Nitratrückhalt in landwirtschaftlichen Tieflandgebieten höher war als in bewaldeten Gebieten. Die Wiederherstellung natürlich meandrierender Fließgewässer erhöhte die Nitratretention und verringerte die Nitratkonzentration im Fließgewässer, insbesondere in kleinen Bächen in landwirtschaftlichen Gebieten. Dies deutet darauf hin, dass bei Sanierungsmaßnahmen die Erhöhung der Gewässersinuosität berücksichtigt werden sollte, um den Nitratrückhalt und die Wasserqualität insbesondere in den Teiflandgebieten zu erhöhen. KW - multi-site calibration KW - spatiotemporal validation KW - uncertainty KW - parameter transferability KW - drought KW - catchment hydrology Water quality model KW - river restoration KW - stream sinuosity KW - mHM-Nitrate model KW - stream denitrification KW - assimilatory uptake KW - Kalibrierung an mehreren Standorten KW - räumlich-zeitliche Validierung KW - Ungewissheit KW - Übertragbarkeit der Parameter KW - Dürre KW - Einzugsgebietshydrologie Wasserqualitätsmodell KW - Restaurierung von Flüssen KW - Strömungsneigung KW - mHM-Nitrat-Modell KW - Bachdenitrifikation KW - assimilatorische Aufnahme Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621059 ER - TY - THES A1 - Halbrügge, Lena T1 - Von der Curricularen Innovation zur Wissenschaftskommunikation T1 - From curriculum innovation to science communication BT - Explorative Entwicklung und Evaluation einer Wissenschaftskommunikationsstrategie für naturwissenschaftliche Forschungsverbünde BT - exploratory development and evaluation of a strategy for science communication in scientific research associations N2 - Im Rahmen einer explorativen Entwicklung wurde in der vorliegenden Studie ein Konzept zur Wissenschaftskommunikation für ein Graduiertenkolleg, in dem an photochemischen Prozessen geforscht wird, erstellt und anschließend evaluiert. Der Grund dafür ist die immer stärker wachsende Forderung nach Wissenschaftskommunikation seitens der Politik. Es wird darüber hinaus gefordert, dass die Kommunikation der eigenen Forschung in Zukunft integrativer Bestandteil des wissenschaftlichen Arbeitens wird. Um junge Wissenschaftler bereits frühzeitig auf diese Aufgabe vorzubereiten, wird Wissenschaftskommunikation auch in Forschungsverbünden realisiert. Aus diesem Grund wurde in einer Vorstudie untersucht, welche Anforderungen an ein Konzept zur Wissenschaftskommunikation im Rahmen eines Forschungsverbundes gestellt werden, indem die Einstellung der Doktoranden zur Wissenschaftskommunikation sowie ihre Kommunikationsfähigkeiten anhand eines geschlossenen Fragebogens evaluiert wurden. Darüber hinaus wurden aus den Daten Wissenschaftskommunikationstypen abgeleitet. Auf Grundlage der Ergebnisse wurden unterschiedliche Wissenschaftskommunikationsmaßnahmen entwickelt, die sich in der Konzeption, den Rezipienten, sowie der Form der Kommunikation und den Inhalten unterscheiden. Im Rahmen dieser Entwicklung wurde eine Lerneinheit mit Bezug auf die Inhalte des Graduiertenkollegs, bestehend aus einem Lehr-Lern-Experiment und den dazugehörigen Begleitmaterialien, konzipiert. Anschließend wurde die Lerneinheit in eine der Wissenschaftskommunikationsmaßnahmen integriert. Je nach Anforderung an die Doktoranden, wurden die Maßnahmen durch vorbereitende Workshops ergänzt. Durch einen halboffenen Pre-Post-Fragebogen wurde der Einfluss der Wissenschaftskommunikationsmaßnahmen und der dazugehörigen Workshops auf die Selbstwirksamkeit der Doktoranden evaluiert, um Rückschlüsse darauf zu ziehen, wie sich die Wahrnehmung der eigenen Kommunikationsfähigkeiten durch die Interventionen verändert. Die Ergebnisse deuten darauf hin, dass die einzelnen Wissenschaftskommunikationsmaßnahmen die verschiedenen Typen in unterschiedlicher Weise beeinflussen. Es ist anzunehmen, dass es abhängig von der eigenen Einschätzung der Kommunikationsfähigkeit unterschiedliche Bedürfnisse der Förderung gibt, die durch dedizierte Wissenschaftskommunikationsmaßnahmen berücksichtigt werden können. Auf dieser Grundlage werden erste Ansätze für eine allgemeingültige Strategie vorgeschlagen, die die individuellen Fähigkeiten zur Wissenschaftskommunikation in einem naturwissenschaftlichen Forschungsverbund fördert. N2 - As part of an exploratory research approach a concept for science communication was developed and evaluated for a research training group that focuses on photochemical processes. The increasing demand for science communication by politics justifies this approach. Furthermore, for future scientists the communication of their own research is demanded to be an integrative part of good scientific practice. To prepare young researchers for the upcoming task at an early stage, science communication is also required in research associations. Hence, a preliminary study was conducted to first investigate the requirements of a science communication concept by evaluating doctoral students’ attitudes towards science communication and their communication skills using a questionnaire comprising closed questions. Moreover, science communication types where derived from the data. Based on these results multiple science communication measures that differ in the conception, the recipients, the form of the communication and their content were developed. With reference to the content of the graduate program an experiment and the accompanying material for teaching was designed. It can be used in schools and extracurricular learning settings. Subsequently, the teaching unit was implemented into one measure. Depending on the requirements of each science communication measure for the doctoral students the measures were complemented by preparatory workshops. Through a semi-open pre-post questionnaire, the impact of the science communication measures and the associated workshops on the doctoral students’ self-efficacy was evaluated. Also, conclusions about how the perception of their own communication skills changed as a result of the intervention could be drawn. The results suggest that the individual science communication measures affect the different types in various ways. It is likely that depending on one’s assessment of communication skills, there are different funding needs that can be addressed through dedicated measures. In this way, a generally applicable strategy which promotes individual science communication skills in a scientific research association will be proposed. KW - Wissenschaftskommunikation KW - Curriculare Innovation KW - Chemie KW - Elektrolumineszenz KW - Lerneinheit KW - Elektrolumineszenz-Folie KW - Wissenschaftskommunikationstypen KW - chemistry KW - curriculum innovation KW - electroluminescence KW - electroluminescent foil KW - learning unit KW - science communication KW - science communication types Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620357 ER - TY - THES A1 - Schmidt, Lena Katharina T1 - Altered hydrological and sediment dynamics in high-alpine areas – Exploring the potential of machine-learning for estimating past and future changes N2 - Climate change fundamentally transforms glaciated high-alpine regions, with well-known cryospheric and hydrological implications, such as accelerating glacier retreat, transiently increased runoff, longer snow-free periods and more frequent and intense summer rainstorms. These changes affect the availability and transport of sediments in high alpine areas by altering the interaction and intensity of different erosion processes and catchment properties. Gaining insight into the future alterations in suspended sediment transport by high alpine streams is crucial, given its wide-ranging implications, e.g. for flood damage potential, flood hazard in downstream river reaches, hydropower production, riverine ecology and water quality. However, the current understanding of how climate change will impact suspended sediment dynamics in these high alpine regions is limited. For one, this is due to the scarcity of measurement time series that are long enough to e.g. infer trends. On the other hand, it is difficult – if not impossible – to develop process-based models, due to the complexity and multitude of processes involved in high alpine sediment dynamics. Therefore, knowledge has so far been confined to conceptual models (which do not facilitate deriving concrete timings or magnitudes for individual catchments) or qualitative estimates (‘higher export in warmer years’) that may not be able to capture decreases in sediment export. Recently, machine-learning approaches have gained in popularity for modeling sediment dynamics, since their black box nature tailors them to the problem at hand, i.e. relatively well-understood input and output data, linked by very complex processes. Therefore, the overarching aim of this thesis is to estimate sediment export from the high alpine Ötztal valley in Tyrol, Austria, over decadal timescales in the past and future – i.e. timescales relevant to anthropogenic climate change. This is achieved by informing, extending, evaluating and applying a quantile regression forest (QRF) approach, i.e. a nonparametric, multivariate machine-learning technique based on random forest. The first study included in this thesis aimed to understand present sediment dynamics, i.e. in the period with available measurements (up to 15 years). To inform the modeling setup for the two subsequent studies, this study identified the most important predictors, areas within the catchments and time periods. To that end, water and sediment yields from three nested gauges in the upper Ötztal, Vent, Sölden and Tumpen (98 to almost 800 km² catchment area, 930 to 3772 m a.s.l.) were analyzed for their distribution in space, their seasonality and spatial differences therein, and the relative importance of short-term events. The findings suggest that the areas situated above 2500 m a.s.l., containing glacier tongues and recently deglaciated areas, play a pivotal role in sediment generation across all sub-catchments. In contrast, precipitation events were relatively unimportant (on average, 21 % of annual sediment yield was associated to precipitation events). Thus, the second and third study focused on the Vent catchment and its sub-catchment above gauge Vernagt (11.4 and 98 km², 1891 to 3772 m a.s.l.), due to their higher share of areas above 2500 m. Additionally, they included discharge, precipitation and air temperature (as well as their antecedent conditions) as predictors. The second study aimed to estimate sediment export since the 1960s/70s at gauges Vent and Vernagt. This was facilitated by the availability of long records of the predictors, discharge, precipitation and air temperature, and shorter records (four and 15 years) of turbidity-derived sediment concentrations at the two gauges. The third study aimed to estimate future sediment export until 2100, by applying the QRF models developed in the second study to pre-existing precipitation and temperature projections (EURO-CORDEX) and discharge projections (physically-based hydroclimatological and snow model AMUNDSEN) for the three representative concentration pathways RCP2.6, RCP4.5 and RCP8.5. The combined results of the second and third study show overall increasing sediment export in the past and decreasing export in the future. This suggests that peak sediment is underway or has already passed – unless precipitation changes unfold differently than represented in the projections or changes in the catchment erodibility prevail and override these trends. Despite the overall future decrease, very high sediment export is possible in response to precipitation events. This two-fold development has important implications for managing sediment, flood hazard and riverine ecology. This thesis shows that QRF can be a very useful tool to model sediment export in high-alpine areas. Several validations in the second study showed good performance of QRF and its superiority to traditional sediment rating curves – especially in periods that contained high sediment export events, which points to its ability to deal with threshold effects. A technical limitation of QRF is the inability to extrapolate beyond the range of values represented in the training data. We assessed the number and severity of such out-of-observation-range (OOOR) days in both studies, which showed that there were few OOOR days in the second study and that uncertainties associated with OOOR days were small before 2070 in the third study. As the pre-processed data and model code have been made publically available, future studies can easily test further approaches or apply QRF to further catchments. N2 - Der Klimawandel verändert vergletscherte Hochgebirgsregionen grundlegend, mit wohlbekannten Auswirkungen auf Kryosphäre und Hydrologie, wie beschleunigtem Gletscherrückgang, vorübergehend erhöhtem Abfluss, längeren schneefreien Perioden und häufigeren und intensiveren sommerlichen Starkniederschlägen. Diese Veränderungen wirken sich auf die Verfügbarkeit und den Transport von Sedimenten in hochalpinen Gebieten aus, indem sie die Interaktion und Intensität verschiedener Erosionsprozesse und Einzugsgebietseigenschaften verändern. Eine Abschätzung der zukünftigen Veränderungen des Schwebstofftransports in hochalpinen Bächen ist von entscheidender Bedeutung, da sie weitreichende Auswirkungen haben, z. B. auf das Hochwasserschadenspotenzial, die Hochwassergefahr in den Unterläufen, sowie Wasserkraftproduktion, aquatische Ökosysteme und Wasserqualität. Das derzeitige Verständnis der Auswirkungen des Klimawandels auf die Schwebstoffdynamik in diesen hochalpinen Regionen ist jedoch begrenzt. Dies liegt zum einen daran, dass es kaum ausreichend lange Messzeitreihen gibt, um z.B. Trends ableiten zu können. Zum anderen ist es aufgrund der Komplexität und der Vielzahl der Prozesse, die an der hochalpinen Sedimentdynamik beteiligt sind, schwierig - wenn nicht gar unmöglich - prozessbasierte Modelle zu entwickeln. Daher beschränkte sich das Wissen bisher auf konzeptionelle Modelle (die es nicht ermöglichen, konkrete Zeitpunkte oder Größenordnungen für einzelne Einzugsgebiete abzuleiten) oder qualitative Schätzungen ("höherer Sedimentaustrag in wärmeren Jahren"), die möglicherweise nicht in der Lage sind, Rückgänge im Sedimentaustrag abzubilden. In jüngster Zeit haben Ansätze des maschinellen Lernens für die Modellierung der Sedimentdynamik an Popularität gewonnen, da sie aufgrund ihres Black-Box-Charakters auf das vorliegende Problem zugeschnitten sind, d. h. auf relativ gut verstandene Eingangs- und Ausgangsdaten, die durch sehr komplexe Prozesse verknüpft sind. Das übergeordnete Ziel dieser Arbeit ist daher die Abschätzung des Sedimentaustrags am Beispiel des hochalpinen Ötztals in Tirol, Österreich, auf dekadischen Zeitskalen in der Vergangenheit und Zukunft – also Zeitskalen, die für den anthropogenen Klimawandel relevant sind. Dazu wird ein Quantile Regression Forest (QRF)-Ansatz, d.h. ein nichtparametrisches, multivariates maschinelles Lernverfahren auf der Basis von Random Forest, erweitert, evaluiert und angewendet. Die erste Studie im Rahmen dieser Arbeit zielte darauf ab, die "gegenwärtige" Sedimentdynamik zu verstehen, d. h. in dem Zeitraum, für den Messungen vorliegen (bis zu 15 Jahre). Um die Modellierung für die beiden folgenden Studien zu ermöglichen, wurden in dieser Studie die wichtigsten Prädiktoren, Teilgebiete des Untersuchungsgebiets und Zeiträume ermittelt. Zu diesem Zweck wurden die Wasser- und Sedimenterträge von drei verschachtelten Pegeln im oberen Ötztal, Vent, Sölden und Tumpen (98 bis fast 800 km² Einzugsgebiet, 930 bis 3772 m ü.d.M.), auf ihre räumliche Verteilung, ihre Saisonalität und deren räumlichen Unterschiede, sowie die relative Bedeutung von Niederschlagsereignissen hin untersucht. Die Ergebnisse deuten darauf hin, dass die Gebiete oberhalb von 2500 m ü. M., in denen sich Gletscherzungen und kürzlich entgletscherte Gebiete befinden, eine zentrale Rolle in der Sedimentdynamik in allen Teileinzugsgebieten spielen. Im Gegensatz dazu waren Niederschlagsereignisse relativ unbedeutend (im Durchschnitt wurden 21 % des jährlichen Austrags mit Niederschlagsereignissen in Verbindung gebracht). Daher konzentrierten sich die zweite und dritte Studie auf das Vent-Einzugsgebiet und sein Teileinzugsgebiet oberhalb des Pegels Vernagt (11,4 und 98 km², 1891 bis 3772 m ü. M.), da sie einen höheren Anteil an Gebieten oberhalb von 2500 m aufweisen. Außerdem wurden Abfluss, Niederschlag und Lufttemperatur (sowie deren Vorbedingungen) als Prädiktoren einbezogen. Die zweite Studie zielte darauf ab, den Sedimentexport seit den 1960er/70er Jahren an den Pegeln Vent und Vernagt abzuschätzen. Dies wurde durch die Verfügbarkeit langer Aufzeichnungen der Prädiktoren Abfluss, Niederschlag und Lufttemperatur sowie kürzerer Aufzeichnungen (vier und 15 Jahre) von aus Trübungsmessungen abgeleiteten Sedimentkonzentrationen an den beiden Pegeln ermöglicht. Die dritte Studie zielte darauf ab, den zukünftigen Sedimentexport bis zum Jahr 2100 abzuschätzen, indem die in der zweiten Studie entwickelten QRF-Modelle auf bereits existierende Niederschlags- und Temperaturprojektionen (EURO-CORDEX) und Abflussprojektionen (des physikalisch basierten hydroklimatologischen und Schneemodells AMUNDSEN) in den drei repräsentativen Konzentrationspfaden RCP2.6, RCP4.5 und RCP8.5 angewendet wurden. Die kombinierten Ergebnisse der zweiten und dritten Studie legen nahe, dass der Sedimentexport in der Vergangenheit insgesamt zugenommen hat und in der Zukunft abnehmen wird. Dies deutet darauf hin, dass der Höhepunkt des Sedimenteintrags erreicht ist oder bereits überschritten wurde - es sei denn, die Niederschlagsveränderungen entwickeln sich anders, als es in den Projektionen dargestellt ist, oder Veränderungen in der Erodierbarkeit des Einzugsgebiets setzen sich durch. Trotz des allgemeinen Rückgangs in der Zukunft sind sehr hohe Sedimentausträge als Reaktion auf Niederschlagsereignisse möglich. Diese zweifältige Entwicklung hat wichtige Auswirkungen auf das Sedimentmanagement, die Hochwassergefahr und die Flussökologie. Diese Arbeit zeigt, dass QRF ein sehr nützliches Instrument zur Modellierung des Sedimentexports in hochalpinen Gebieten sein kann. Mehrere Validierungen in der zweiten Studie zeigten eine gute Modell-Performance und die Überlegenheit gegenüber traditionellen Sediment-Abfluss-Beziehungen – insbesondere in Zeiträumen, in denen es zu einem hohen Sedimentexport kam, was auf die Fähigkeit von QRF hinweist, mit Schwelleneffekten umzugehen. Eine technische Einschränkung von QRF ist die Unfähigkeit, über den Bereich der in den Trainingsdaten dargestellten Werte hinaus zu extrapolieren. Die Anzahl und den Schweregrad an solchen Tagen, in denen der Wertebereich der Trainingsdaten überschritten wurde, wurde in beiden Studien untersucht. Dabei zeigte sich, dass es in der zweiten Studie nur wenige solcher Tage gab und dass die mit den Überschreitungen verbundenen Unsicherheiten in der dritten Studie vor 2070 gering waren. Da die vorverarbeiteten Daten und der Modellcode öffentlich zugänglich gemacht wurden, können künftige Studien darauf aufbauend weitere Ansätze testen oder QRF auf weitere Einzugsgebiete anwenden. KW - suspended sediment KW - glacier melt KW - climate change KW - natural hazards KW - hydrology KW - geomorphology KW - Klimawandel KW - Geomorphologie KW - Gletscherschmelze KW - Hydrologie KW - Naturgefahren KW - suspendiertes Sediment Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-623302 ER - TY - THES A1 - Schifferle, Lukas T1 - Optical properties of (Mg,Fe)O at high pressure T1 - Optische Eigenschaften von (Mg,Fe)O unter Hochdruck N2 - Large parts of the Earth’s interior are inaccessible to direct observation, yet global geodynamic processes are governed by the physical material properties under extreme pressure and temperature conditions. It is therefore essential to investigate the deep Earth’s physical properties through in-situ laboratory experiments. With this goal in mind, the optical properties of mantle minerals at high pressure offer a unique way to determine a variety of physical properties, in a straight-forward, reproducible, and time-effective manner, thus providing valuable insights into the physical processes of the deep Earth. This thesis focusses on the system Mg-Fe-O, specifically on the optical properties of periclase (MgO) and its iron-bearing variant ferropericlase ((Mg,Fe)O), forming a major planetary building block. The primary objective is to establish links between physical material properties and optical properties. In particular the spin transition in ferropericlase, the second-most abundant phase of the lower mantle, is known to change the physical material properties. Although the spin transition region likely extends down to the core-mantle boundary, the ef-fects of the mixed-spin state, where both high- and low-spin state are present, remains poorly constrained. In the studies presented herein, we show how optical properties are linked to physical properties such as electrical conductivity, radiative thermal conductivity and viscosity. We also show how the optical properties reveal changes in the chemical bonding. Furthermore, we unveil how the chemical bonding, the optical and other physical properties are affected by the iron spin transition. We find opposing trends in the pres-sure dependence of the refractive index of MgO and (Mg,Fe)O. From 1 atm to ~140 GPa, the refractive index of MgO decreases by ~2.4% from 1.737 to 1.696 (±0.017). In contrast, the refractive index of (Mg0.87Fe0.13)O (Fp13) and (Mg0.76Fe0.24)O (Fp24) ferropericlase increases with pressure, likely because Fe Fe interactions between adjacent iron sites hinder a strong decrease of polarizability, as it is observed with increasing density in the case of pure MgO. An analysis of the index dispersion in MgO (decreasing by ~23% from 1 atm to ~103 GPa) reflects a widening of the band gap from ~7.4 eV at 1 atm to ~8.5 (±0.6) eV at ~103 GPa. The index dispersion (between 550 and 870 nm) of Fp13 reveals a decrease by a factor of ~3 over the spin transition range (~44–100 GPa). We show that the electrical band gap of ferropericlase significantly widens up to ~4.7 eV in the mixed spin region, equivalent to an increase by a factor of ~1.7. We propose that this is due to a lower electron mobility between adjacent Fe2+ sites of opposite spin, explaining the previously observed low electrical conductivity in the mixed spin region. From the study of absorbance spectra in Fp13, we show an increasing covalency of the Fe-O bond with pressure for high-spin ferropericlase, whereas in the low-spin state a trend to a more ionic nature of the Fe-O bond is observed, indicating a bond weakening effect of the spin transition. We found that the spin transition is ultimately caused by both an increase of the ligand field-splitting energy and a decreasing spin-pairing energy of high-spin Fe2+. N2 - Geodynamische Prozesse werden von den physikalischen Materialeigenschaften unter den extremen Druck- und Temperaturbedingungen des Erdinneren gesteuert, gerade diese Areale sind aber faktisch nicht für direkte Beobachtungen zugänglich. Umso wichtiger ist es, die physikalischen Eigenschaften unter Bedingungen des Erdinneren zu untersuchen. Mit diesem Ziel vor Augen erlaubt das Studium der optischen Eigenschaften von Mineralen des Erdmantels, eine große Bandbreite an physikalischen Materialeigenschaften, in einer einfachen, reproduzierbaren und effizienten Art und Weise zu bestimmen. Dadurch bieten sich wichtige Einblicke in die physikalischen Prozessen des Erdinneren. Die vorliegende Arbeit konzentriert sich auf das System Mg-Fe-O, im Speziellen auf Periklas (MgO) und seine Eisen-haltige Variante Ferroperiklas ((Mg,Fe)O), ein wichtiger Baustein planetarer Körper. Das Hauptziel der Arbeit besteht darin Verbindungen zwischen optischen Eigenschaften und physikalischen Materialeigenschaften zu finden. Gerade der Spin-Übergang in Ferroperiklas, der zweithäufigsten Phase des unteren Erdmantels, ist dabei von Bedeutung, da damit Veränderungen in den physikalischen Materialeigenschaften einhergehen. Obwohl sich der Spinübergangsbereich vermutlich bis zur Kern-Mantel-Grenze erstreckt, sind die Auswirkungen des gemischten Spin-Zustandes, bei dem sowohl Hoch- als auch Tief-Spin präsent sind, nur unzureichend untersucht. Die hier vorgestellten Studien zeigen, wie optische Eigenschaften mit anderen wichtigen physikalischen Eigenschaften wie elektrischer und thermischer Leitfähigkeit, Viskosität oder auch mit der chemischen Bindung verbunden sind. Daraus lässt sich auch ableiten wie der Spin-Übergang in Ferroperiklas diese Eigenschaften beeinflusst. Von Raumbedingungen bis zu ~140 GPa sinkt der Brechungsindex von MgO um ~2.4 % von 1.737 auf 1.696 (±0.017). Im Gegensatz dazu steigt der Brechungsindex von (Mg0.87Fe0.13)O (Fp13) und (Mg0.76Fe0.24)O (Fp24) Ferroperiklas mit dem Druck an. Dies ist auf Fe-Fe Wechselwirkungen zwischen benachbarten Eisenpositionen zurückzuführen, die eine starke Verringerung der Polarisierbarkeit, wie im Falle von reinem MgO mit zunehmender Dichte, behindern. Eine Analyse der Dispersion des Brechungsindexes von MgO (Abnahme um ~23 % von 1 Atm zu ~103 GPa) offenbart eine Verbreiterung der Bandlücke von ~7.4 eV bei 1 Atm zu ~8.5 (±0.6) eV bei ~103 GPa. Die Messung der Dispersion (zwischen 550 und 870 nm) in Fp13 zeigt eine starke Abnahme über den Bereich des Spin-Überganges (~44–100 GPa) bis zu einem Faktor von ~3. Die Bandlücke nimmt in der Region des gemischten Spin-Zustandes signifikant auf bis zu ~4.7 eV zu (entspricht einer Zunahme um den Faktor ~1.7). Dies deutet auf eine Verringerung der Elektronen-Mobilität zwischen benachbarten Fe2+-Positionen mit unterschiedlichem Spin-Zustand hin, was die bereits in früheren Arbeiten beobachtete Abnahme der elektrischen Leitfähigkeit im Bereich des gemischten Spin-Zustandes erklärt. Absorptionsspektren an Fp13 zeigen eine Druck-bedingte Zunahme der Kovalenz der Fe-O Bindung für Ferroperiklas im Hoch-Spin Zustand, wohingegen Tief-Spin Ferroperiklas einen Trend zu einer mehr ionischen Fe-O Bindung auf-weist, was auf einen Bindungs-schwächenden Effekt des Spin-Wechsels hinweist. Der Übergang von Hoch- zu Tiefspin ist letztlich auf eine Zunahme der Ligandenfeldaufspaltungsenergie sowie eine abnehmende Spinpaarungsenergie von Hoch-Spin Fe2+ zurückzuführen. KW - optical properties KW - optische Eigenschaften KW - high pressure KW - Hochdruck KW - earth mantle KW - Erdmantel KW - diamond anvil cell KW - Diamantstempelzelle KW - ferropericlase KW - Ferroperiklas KW - spectroscopy KW - Spektroskopie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-622166 ER - TY - GEN A1 - Ernst, Sebastian A1 - Pröve, Ralf A1 - Krieger, Jannis M. T1 - Konstruktivistisches Prozessmodell Historischer Erkenntnisbildung T1 - Constructivist modell of historiography N2 - Vergangenheit ist vergangen, Geschichte wird gemacht. An diesem Konstruktionsprozess sind nicht nur die historischen Akteur:innen und deren Quellen, sondern in besonderem Maße auch die Historiker:innen, die sich mit diesen auseinandersetzen, beteiligt. Sie sind es, die die Quellen erst zum Sprudeln bringen. Was dabei zutage tritt, ist somit in hohem Maße von den Forschenden selbst, von ihren Vorannahmen und Methoden aber auch von ihren sozialen, kulturellen und biografischen Prägungen abhängig. Das hier vorgestellte Prozessmodell versucht, diese als Einflussfaktoren zu fassen und sichtbar zu machen, um auf dieser Basis eine erweiterte wissenschaftliche (Selbst-)Reflexion zu ermöglichen. N2 - The past is gone, history is made. In the process of making history, not only the historical actors and their sources are involved, but also historians who engage with them, to a significant extent. They are the ones who bring the sources to life. What emerges from this is therefore highly dependent on the researchers themselves, their assumptions and methods, but also on their social, cultural, and biographical backgrounds. The process model presented here attempts to capture these factors as influences and make them visible, in order to enable an extended scholarly (self-)reflection on this basis. KW - Konstruktivismus KW - Geschichte KW - Geschichtswissenschaft KW - history KW - constructivism Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-626341 ER - TY - THES A1 - Rabe, Maximilian Michael T1 - Modeling the interaction of sentence processing and eye-movement control in reading T1 - Modellierung der Interaktion von Satzverarbeitung und Blickbewegungskontrolle beim Lesen N2 - The evaluation of process-oriented cognitive theories through time-ordered observations is crucial for the advancement of cognitive science. The findings presented herein integrate insights from research on eye-movement control and sentence comprehension during reading, addressing challenges in modeling time-ordered data, statistical inference, and interindividual variability. Using kernel density estimation and a pseudo-marginal likelihood for fixation durations and locations, a likelihood implementation of the SWIFT model of eye-movement control during reading (Engbert et al., Psychological Review, 112, 2005, pp. 777–813) is proposed. Within the broader framework of data assimilation, Bayesian parameter inference with adaptive Markov Chain Monte Carlo techniques is facilitated for reliable model fitting. Across the different studies, this framework has shown to enable reliable parameter recovery from simulated data and prediction of experimental summary statistics. Despite its complexity, SWIFT can be fitted within a principled Bayesian workflow, capturing interindividual differences and modeling experimental effects on reading across different geometrical alterations of text. Based on these advancements, the integrated dynamical model SEAM is proposed, which combines eye-movement control, a traditionally psychological research area, and post-lexical language processing in the form of cue-based memory retrieval (Lewis & Vasishth, Cognitive Science, 29, 2005, pp. 375–419), typically the purview of psycholinguistics. This proof-of-concept integration marks a significant step forward in natural language comprehension during reading and suggests that the presented methodology can be useful to develop complex cognitive dynamical models that integrate processes at levels of perception, higher cognition, and (oculo-)motor control. These findings collectively advance process-oriented cognitive modeling and highlight the importance of Bayesian inference, individual differences, and interdisciplinary integration for a holistic understanding of reading processes. Implications for theory and methodology, including proposals for model comparison and hierarchical parameter inference, are briefly discussed. N2 - Die Evaluierung prozessorientierter kognitiver Theorien durch zeitlich geordnete Beobachtungen ist ein zentraler Baustein für die Weiterentwicklung der Kognitionswissenschaft. Die hier präsentierten Ergebnisse integrieren Erkenntnisse aus der Forschung zur Blickbewegungskontrolle und zur Satzverarbeitung beim Lesen und gehen dabei auf Herausforderungen bei der Modellierung von zeitlich geordneten Daten, statistischer Inferenz und interindividueller Variabilität ein. Unter Verwendung von Kerndichteschätzung und einer pseudo-marginalen Wahrscheinlichkeitverteilung für Fixationsdauern und -orte wird eine Implementation für die Likelihood des SWIFT-Modells zur Blickbewegungskontrolle beim Lesen (Engbert et al., Psychological Review, 112, 2005, S. 777–813) eingeführt. Im breiteren Kontext der Datenassimilation wird Bayes'sche Parameterinferenz mit adaptiven Markov-Chain-Monte-Carlo-Techniken verwendet, um eine zuverlässige Modellanpassung zu ermöglichen. In verschiedenen Studien hat sich dieser methodische Rahmen als geeignet erwiesen, um zuverlässige Parameterrückgewinnung aus simulierten Daten und Vorhersage experimenteller Zusammenfassungsstatistiken zu ermöglichen. Trotz dessen Komplexität kann SWIFT innerhalb eines fundierten Bayes'schen Workflows angepasst werden und macht daraufhin zuverlässige Vorhersagen für interindividuelle Unterschiede sowie die Modellierung experimenteller Effekte bei verschiedenen geometrischen Änderungen von Text. Basierend auf diesen Fortschritten wird das integrierte dynamische Modell SEAM eingeführt. Dieses kombiniert die Forschungsgebiete der traditionell psychologisch geprägten Blickbewegungskontrolle und der traditionell psycholinguistisch geprägten postlexikalischen Sprachverarbeitung in Form von cue-basiertem Gedächtnisabruf (Lewis & Vasishth, Cognitive Science, 29, 2005, S. 375–419). Der Nachweis der Durchführbarkeit solcher integrativer Modelle stellt einen bedeutenden Fortschritt bei der natürlichen Sprachverarbeitung beim Lesen dar und legt nahe, dass die vorgestellte Methodik nützlich sein kann, um komplexe kognitive dynamische Modelle zu entwickeln, die Prozesse auf den Ebenen der Wahrnehmung, höheren Kognition, und (okulo-)motorischen Kontrolle integrieren. Diese Erkenntnisse fördern insgesamt die prozessorientierte kognitive Modellierung und betonen die Bedeutung der Bayes'schen Inferenz, individueller Unterschiede und interdisziplinärer Integration für ein ganzheitliches Verständnis von Leseprozessen. Implikationen für Theorie und Methodologie, einschließlich Vorschlägen für Modellvergleich und hierarchische Parameterinferenz, werden kurz diskutiert. KW - eye movements KW - dynamical cognitive modeling KW - sequential likelihood KW - psycholinguistics KW - cognitive psychology KW - sentence processing KW - reading KW - Blickbewegungen KW - Dynamische kognitive Modellierung KW - Sequenzielle Likelihood KW - Psycholinguistik KW - Kognitionspsychologie KW - Satzverarbeitung KW - Lesen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-622792 ER - TY - THES A1 - Adelt, Anne T1 - The Relativized Minimality approach to comprehension of German relative clauses in aphasia N2 - It is a well-attested finding in head-initial languages that individuals with aphasia (IWA) have greater difficulties in comprehending object-extracted relative clauses (ORCs) as compared to subject-extracted relative clauses (SRCs). Adopting the linguistically based approach of Relativized Minimality (RM; Rizzi, 1990, 2004), the subject-object asymmetry is attributed to the occurrence of a Minimality effect in ORCs due to reduced processing capacities in IWA (Garraffa & Grillo, 2008; Grillo, 2008, 2009). For ORCs, it is claimed that the embedded subject intervenes in the syntactic dependency between the moved object and its trace, resulting in greater processing demands. In contrast, no such intervener is present in SRCs. Based on the theoretical framework of RM and findings from language acquisition (Belletti et al., 2012; Friedmann et al., 2009), it is assumed that Minimality effects are alleviated when the moved object and the intervening subject differ in terms of relevant syntactic features. For German, the language under investigation, the RM approach predicts that number (i.e., singular vs. plural) and the lexical restriction [+NP] feature (i.e., lexically restricted determiner phrases vs. lexically unrestricted pronouns) are considered relevant in the computation of Minimality. Greater degrees of featural distinctiveness are predicted to result in more facilitated processing of ORCs, because IWA can more easily distinguish between the moved object and the intervener. This cumulative dissertation aims to provide empirical evidence on the validity of the RM approach in accounting for comprehension patterns during relative clause (RC) processing in German-speaking IWA. For that purpose, I conducted two studies including visual-world eye-tracking experiments embedded within an auditory referent-identification task to study the offline and online processing of German RCs. More specifically, target sentences were created to evaluate (a) whether IWA demonstrate a subject-object asymmetry, (b) whether dissimilarity in the number and/or the [+NP] features facilitates ORC processing, and (c) whether sentence processing in IWA benefits from greater degrees of featural distinctiveness. Furthermore, by comparing RCs disambiguated through case marking (at the relative pronoun or the following noun phrase) and number marking (inflection of the sentence-final verb), it was possible to consider the role of the relative position of the disambiguation point. The RM approach predicts that dissimilarity in case should not affect the occurrence of Minimality effects. However, the case cue to sentence interpretation appears earlier within RCs than the number cue, which may result in lower processing costs in case-disambiguated RCs compared to number-disambiguated RCs. In study I, target sentences varied with respect to word order (SRC vs. ORC) and dissimilarity in the [+NP] feature (lexically restricted determiner phrase vs. pronouns as embedded element). Moreover, by comparing the impact of these manipulations in case- and number-disambiguated RCs, the effect of dissimilarity in the number feature was explored. IWA demonstrated a subject-object asymmetry, indicating the occurrence of a Minimality effect in ORCs. However, dissimilarity neither in the number feature nor in the [+NP] feature alone facilitated ORC processing. Instead, only ORCs involving distinct specifications of both the number and the [+NP] features were well comprehended by IWA. In study II, only temporarily ambiguous ORCs disambiguated through case or number marking were investigated, while controlling for varying points of disambiguation. There was a slight processing advantage of case marking as cue to sentence interpretation as compared to number marking. Taken together, these findings suggest that the RM approach can only partially capture empirical data from German IWA. In processing complex syntactic structures, IWA are susceptible to the occurrence of the intervening subject in ORCs. The new findings reported in the thesis show that structural dissimilarity can modulate sentence comprehension in aphasia. Interestingly, IWA can override Minimality effects in ORCs and derive correct sentence meaning if the featural specifications of the constituents are maximally different, because they can more easily distinguish the moved object and the intervening subject given their reduced processing capacities. This dissertation presents new scientific knowledge that highlights how the syntactic theory of RM helps to uncover selective effects of morpho-syntactic features on sentence comprehension in aphasia, emphasizing the close link between assumptions from theoretical syntax and empirical research. N2 - Personen mit Aphasie (PmA) verstehen Objektrelativsätze (ORS) häufig schlechter als Subjektrelativsätze (SRS). Im linguistisch basierten Ansatz der relativierten Minimalitätstheorie (RM; Rizzi, 1990, 2004) wird diese sog. Subjekt-Objekt-Asymmetrie dadurch erklärt, dass bei PmA aufgrund reduzierter Verarbeitungskapazitäten ein sog. Minimalitätseffekt in ORS auftritt (Garraffa & Grillo, 2008; Grillo, 2008, 2009), der die Verarbeitung erschwert. Dieser entsteht dadurch, dass das eingebettete Subjekt in der syntaktischen Abhängigkeit zwischen dem bewegten Objekt und seiner Spur interveniert. Im Gegensatz dazu gibt es in SRS kein intervenierendes Element. Anhand von Ergebnissen aus psycholinguistischen Studien (Belletti et al., 2012; Friedmann et al., 2009) wird zudem angenommen, dass der Minimalitätseffekt in ORS reduziert wird, wenn sich das bewegte Objekt und das intervenierende Subjekt hinsichtlich ihrer syntaktischen Merkmale unterscheiden. Für das Deutsche wird von der RM vorhergesagt, dass die Merkmale Numerus (Singular vs. Plural) und [+NP] (volle Nominalphrasen vs. Pronomen) für das Auftreten des Minimalitätseffekts relevant sind. Je stärker sich die Konstituenten hinsichtlich relevanter syntaktischer Merkmale unterscheiden, desto stärker wird die Verarbeitung von ORS fazilitiert, weil PmA leichter zwischen dem bewegten Objekt und dem intervenierenden Subjekt unterscheiden können. In dieser kumulativen Dissertation wird überprüft, ob mithilfe der RM Leistungsmuster bei der Verarbeitung von Relativsätzen in deutsch-sprechenden PmA erklärt werden können. Zu diesem Zweck wurden zwei Studien durchgeführt, in denen das Visual-World-Eyetracking-Paradigma mit einer auditiven Referenten-Identifikationsaufgabe kombiniert wurde, um die Offline- und Online-Verarbeitung von Relativsätzen zu untersuchen. Dabei wurde überprüft, (a) ob bei PmA eine Subjekt-Objekt-Asymmetrie auftritt, (b) ob die Verarbeitung von ORS durch die unterschiedliche Markierung des Objekts und des Subjekts hinsichtlich der Merkmale Numerus und/oder [+NP] fazilitiert wird und (c) ob die Satzverarbeitung weiter fazilitiert wird, wenn sich die Argumente in mehreren Merkmalen unterscheiden. Darüber hinaus wurden kasus-markierte (Desambiguierung durch Kasus am Relativpronomen oder am Determinierer der nachfolgenden Nominalphrase) oder numerus-markierte Relativsätze (Desambiguierung durch Flexion des satzfinalen Verbs) verglichen. Dadurch wurde untersucht, ob der Zeitpunkt der Disambiguierung einen Einfluss auf die Verarbeitung von Relativsätzen hat. Laut der RM sollte der Minimalitätseffekt nicht durch Kasus als morpho-syntaktisches Merkmal beeinflusst werden. Dennoch werden kasus-markierte Sätze früher desambiguiert als numerus-markierte Sätze, weshalb ein Verarbeitungsvorteil für kasus-markierte Relativsätze zu erwarten ist. In Studie I wurden die Zielsätze hinsichtlich der Wortstellung (SRS vs. ORS) und des [+NP]-Merkmals variiert (volle Nominalphrase vs. Pronomen als eingebettetes Element). Darüber hinaus wurde der Einfluss dieser Manipulationen in kasus- und numerus-markierten Relativsätzen untersucht. Dadurch wurde beeinflusst, inwiefern sich die Konstituenten in relevanten morpho-syntaktischen Merkmalen unterscheiden. Die PmA zeigten eine Subjekt-Objekt-Asymmetrie, was durch das Auftreten eines Minimalitätseffekts in ORS erklärt werden kann. Im Gegensatz zu den Vorhersagen der RM konnte in ORS kein fazilitierender Effekt festgestellt werden, wenn sich die Konstituenten nur im Merkmal Numerus oder [+NP] unterschieden. Stattdessen verbesserten sich die Verstehensleistungen für solche ORS, in denen sich das bewegte Objekt und das eingebettete Subjekt hinsichtlich beider Merkmale Numerus und [+NP] unterschieden. In Studie II wurden kasus- und numerus-markierte ORS untersucht, wobei verschiedene Zeitpunkte der Disambiguierung berücksichtigt wurden. Hierbei zeigte sich ein leichter Verarbeitungsvorteil für kasus-markierte verglichen mit numerus-markierten ORS. Zusammenfassend können mithilfe der RM nicht alle empirischen Daten von deutschsprachigen PmA erklärt werden. Die Verarbeitung von Relativsätzen wird durch das Auftreten des intervenierenden Subjekts in ORS beeinflusst. Die in der Dissertation berichteten Ergebnisse zeigen, dass die Satzverarbeitung bei Aphasie durch strukturelle Unterschiede zwischen den Konstituenten beeinflusst werden kann. Insbesondere kann der Minimalitätseffekt in ORS überwunden werden, wenn sich die Konstituenten hinsichtlich der morpho-syntaktischen Merkmale maximal unterscheiden. In diesem Fall können PmA das bewegte Objekt und das intervenierende Subjekt trotz ihrer reduzierten Verarbeitungskapazitäten voneinander unterscheiden. Das heißt, dass mithilfe der RM aufgezeigt werden kann, wie morpho-syntaktische Merkmale die Satzverarbeitung von PmA selektiv beeinflussen können. Dies betont die enge Verknüpfung zwischen Annahmen aus der theoretischen Syntax und empirischer Forschung. KW - aphasia KW - Aphasie KW - relative clauses KW - Relativsätze KW - Relativized Minimality KW - relativierte Minimalitätstheorie KW - morpho-syntactic features KW - morpho-syntaktische Merkmale KW - sentence processing KW - Satzverarbeitung KW - eye tracking KW - Eye-tracking KW - case KW - Kasus KW - number KW - Numerus Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-623312 ER - TY - THES A1 - Vitagliano, Gerardo T1 - Modeling the structure of tabular files for data preparation T1 - Modellierung der Struktur von Tabellarische Dateien für die Datenaufbereitung N2 - To manage tabular data files and leverage their content in a given downstream task, practitioners often design and execute complex transformation pipelines to prepare them. The complexity of such pipelines stems from different factors, including the nature of the preparation tasks, often exploratory or ad-hoc to specific datasets; the large repertory of tools, algorithms, and frameworks that practitioners need to master; and the volume, variety, and velocity of the files to be prepared. Metadata plays a fundamental role in reducing this complexity: characterizing a file assists end users in the design of data preprocessing pipelines, and furthermore paves the way for suggestion, automation, and optimization of data preparation tasks. Previous research in the areas of data profiling, data integration, and data cleaning, has focused on extracting and characterizing metadata regarding the content of tabular data files, i.e., about the records and attributes of tables. Content metadata are useful for the latter stages of a preprocessing pipeline, e.g., error correction, duplicate detection, or value normalization, but they require a properly formed tabular input. Therefore, these metadata are not relevant for the early stages of a preparation pipeline, i.e., to correctly parse tables out of files. In this dissertation, we turn our focus to what we call the structure of a tabular data file, i.e., the set of characters within a file that do not represent data values but are required to parse and understand the content of the file. We provide three different approaches to represent file structure, an explicit representation based on context-free grammars; an implicit representation based on file-wise similarity; and a learned representation based on machine learning. In our first contribution, we use the grammar-based representation to characterize a set of over 3000 real-world csv files and identify multiple structural issues that let files deviate from the csv standard, e.g., by having inconsistent delimiters or containing multiple tables. We leverage our learnings about real-world files and propose Pollock, a benchmark to test how well systems parse csv files that have a non-standard structure, without any previous preparation. We report on our experiments on using Pollock to evaluate the performance of 16 real-world data management systems. Following, we characterize the structure of files implicitly, by defining a measure of structural similarity for file pairs. We design a novel algorithm to compute this measure, which is based on a graph representation of the files' content. We leverage this algorithm and propose Mondrian, a graphical system to assist users in identifying layout templates in a dataset, classes of files that have the same structure, and therefore can be prepared by applying the same preparation pipeline. Finally, we introduce MaGRiTTE, a novel architecture that uses self-supervised learning to automatically learn structural representations of files in the form of vectorial embeddings at three different levels: cell level, row level, and file level. We experiment with the application of structural embeddings for several tasks, namely dialect detection, row classification, and data preparation efforts estimation. Our experimental results show that structural metadata, either identified explicitly on parsing grammars, derived implicitly as file-wise similarity, or learned with the help of machine learning architectures, is fundamental to automate several tasks, to scale up preparation to large quantities of files, and to provide repeatable preparation pipelines. N2 - Anwender müssen häufig komplexe Pipelines zur Aufbereitung von tabellarischen Dateien entwerfen, um diese verwalten und ihre Inhalte für nachgelagerte Aufgaben nutzen zu können. Die Komplexität solcher Pipelines ergibt sich aus verschiedenen Faktoren, u.a. (i) aus der Art der Aufbereitungsaufgaben, die oft explorativ oder ad hoc für bestimmte Datensätze durchgeführt werden, (ii) aus dem großen Repertoire an Werkzeugen, Algorithmen und Frameworks, die von den Anwendern beherrscht werden müssen, sowie (iii) aus der Menge, der Größe und der Verschiedenartigkeit der aufzubereitenden Dateien. Metadaten spielen eine grundlegende Rolle bei der Verringerung dieser Komplexität: Die Charakterisierung einer Datei hilft den Nutzern bei der Gestaltung von Datenaufbereitungs-Pipelines und ebnet darüber hinaus den Weg für Vorschläge, Automatisierung und Optimierung von Datenaufbereitungsaufgaben. Bisherige Forschungsarbeiten in den Bereichen Data Profiling, Datenintegration und Datenbereinigung konzentrierten sich auf die Extraktion und Charakterisierung von Metadaten über die Inhalte der tabellarischen Dateien, d.h. über die Datensätze und Attribute von Tabellen. Inhalts-basierte Metadaten sind für die letzten Phasen einer Aufbereitungspipeline nützlich, z.B. für die Fehlerkorrektur, die Erkennung von Duplikaten oder die Normalisierung von Werten, aber sie erfordern eine korrekt geformte tabellarische Eingabe. Daher sind diese Metadaten für die frühen Phasen einer Aufbereitungspipeline, d.h. für das korrekte Parsen von Tabellen aus Dateien, nicht relevant. In dieser Dissertation konzentrieren wir uns die Struktur einer tabellarischen Datei nennen, d.h. die Menge der Zeichen in einer Datei, die keine Datenwerte darstellen, aber erforderlich sind, um den Inhalt der Datei zu analysieren und zu verstehen. Wir stellen drei verschiedene Ansätze zur Darstellung der Dateistruktur vor: eine explizite Darstellung auf der Grundlage kontextfreier Grammatiken, eine implizite Darstellung auf der Grundlage von Dateiähnlichkeiten und eine erlernte Darstellung auf der Grundlage von maschinellem Lernen. In unserem ersten Ansatz verwenden wir die grammatikbasierte Darstellung, um eine Menge von über 3000 realen CSV-Dateien zu charakterisieren und mehrere strukturelle Probleme zu identifizieren, die dazu führen, dass Dateien vom CSV-Standard abweichen, z.B. durch inkonsistente Begrenzungszeichen oder dem Enthalten mehrere Tabellen in einer einzelnen Datei. Wir nutzen unsere Erkenntnisse aus realen Dateien und schlagen Pollock vor, einen Benchmark, der testet, wie gut Systeme unaufbereitete CSV-Dateien parsen. Wir berichten über unsere Experimente zur Verwendung von Pollock, in denen wir die Leistung von 16 realen Datenverwaltungssystemen bewerten. Anschließend charakterisieren wir die Struktur von Dateien implizit, indem wir ein Maß für die strukturelle Ähnlichkeit von Dateipaaren definieren. Wir entwickeln einen neuartigen Algorithmus zur Berechnung dieses Maßes, der auf einer Graphen-basierten Darstellung des Dateiinhalts basiert. Wir nutzen diesen Algorithmus und schlagen Mondrian vor, ein grafisches System zur Unterstützung der Benutzer bei der Identifizierung von Layout Vorlagen in einem Datensatz, d.h. von Dateiklassen, die die gleiche Struktur aufweisen und daher mit der gleichen Pipeline aufbereitet werden können. Schließlich stellen wir MaGRiTTE vor, eine neuartige Architektur, die selbst- überwachtes Lernen verwendet, um automatisch strukturelle Darstellungen von Dateien in Form von vektoriellen Einbettungen auf drei verschiedenen Ebenen zu lernen: auf Zellebene, auf Zeilenebene und auf Dateiebene. Wir experimentieren mit der Anwendung von strukturellen Einbettungen für verschiedene Aufgaben, nämlich Dialekterkennung, Zeilenklassifizierung und der Schätzung des Aufwands für die Datenaufbereitung. Unsere experimentellen Ergebnisse zeigen, dass strukturelle Metadaten, die entweder explizit mit Hilfe von Parsing-Grammatiken identifiziert, implizit als Dateiähnlichkeit abgeleitet oder mit Machine-Learning Architekturen erlernt werden, von grundlegender Bedeutung für die Automatisierung verschiedener Aufgaben, die Skalierung der Aufbereitung auf große Mengen von Dateien und die Bereitstellung wiederholbarer Aufbereitungspipelines sind. KW - data preparation KW - file structure KW - Datenaufbereitung KW - tabellarische Dateien KW - Dateistruktur KW - tabular data Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624351 ER - TY - THES A1 - Ghahremani, Sona T1 - Incremental self-adaptation of dynamic architectures attaining optimality and scalability T1 - Inkrementelle Selbstanpassung dynamischer Architekturen zum Erreichen von Optimalität und Skalierbarkeit N2 - The landscape of software self-adaptation is shaped in accordance with the need to cost-effectively achieve and maintain (software) quality at runtime and in the face of dynamic operation conditions. Optimization-based solutions perform an exhaustive search in the adaptation space, thus they may provide quality guarantees. However, these solutions render the attainment of optimal adaptation plans time-intensive, thereby hindering scalability. Conversely, deterministic rule-based solutions yield only sub-optimal adaptation decisions, as they are typically bound by design-time assumptions, yet they offer efficient processing and implementation, readability, expressivity of individual rules supporting early verification. Addressing the quality-cost trade-of requires solutions that simultaneously exhibit the scalability and cost-efficiency of rulebased policy formalism and the optimality of optimization-based policy formalism as explicit artifacts for adaptation. Utility functions, i.e., high-level specifications that capture system objectives, support the explicit treatment of quality-cost trade-off. Nevertheless, non-linearities, complex dynamic architectures, black-box models, and runtime uncertainty that makes the prior knowledge obsolete are a few of the sources of uncertainty and subjectivity that render the elicitation of utility non-trivial. This thesis proposes a twofold solution for incremental self-adaptation of dynamic architectures. First, we introduce Venus, a solution that combines in its design a ruleand an optimization-based formalism enabling optimal and scalable adaptation of dynamic architectures. Venus incorporates rule-like constructs and relies on utility theory for decision-making. Using a graph-based representation of the architecture, Venus captures rules as graph patterns that represent architectural fragments, thus enabling runtime extensibility and, in turn, support for dynamic architectures; the architecture is evaluated by assigning utility values to fragments; pattern-based definition of rules and utility enables incremental computation of changes on the utility that result from rule executions, rather than evaluating the complete architecture, which supports scalability. Second, we introduce HypeZon, a hybrid solution for runtime coordination of multiple off-the-shelf adaptation policies, which typically offer only partial satisfaction of the quality and cost requirements. Realized based on meta-self-aware architectures, HypeZon complements Venus by re-using existing policies at runtime for balancing the quality-cost trade-off. The twofold solution of this thesis is integrated in an adaptation engine that leverages state- and event-based principles for incremental execution, therefore, is scalable for large and dynamic software architectures with growing size and complexity. The utility elicitation challenge is resolved by defining a methodology to train utility-change prediction models. The thesis addresses the quality-cost trade-off in adaptation of dynamic software architectures via design-time combination (Venus) and runtime coordination (HypeZon) of rule- and optimization-based policy formalisms, while offering supporting mechanisms for optimal, cost-effective, scalable, and robust adaptation. The solutions are evaluated according to a methodology that is obtained based on our systematic literature review of evaluation in self-healing systems; the applicability and effectiveness of the contributions are demonstrated to go beyond the state-of-the-art in coverage of a wide spectrum of the problem space for software self-adaptation. N2 - Die Landschaft der Software-Selbstanpassungen ist von der Notwendigkeit geprägt, zur Laufzeit und angesichts dynamischer Betriebsbedingungen kosteneffizient (Software-)Qualität zu erreichen und aufrechtzuerhalten. Optimierungsbasierte Lösungen führen eine umfassende Suche im Anpassungsraum durch und können daher Qualitätsgarantien bieten. Allerdings machen diese Lösungen das Erreichen optimaler Anpassungspläne zeitintensiv und behindern dadurch die Skalierbarkeit. Umgekehrt führen deterministische regelbasierte Lösungen nur zu suboptimalen Anpassungsentscheidungen, da sie typischerweise an Annahmen zur Entwurfszeit gebunden sind. Sie bieten jedoch eine effiziente Verarbeitung und Implementierung, Lesbarkeit und Ausdruckskraft einzelner Regeln und unterstützen so eine frühzeitige Überprüfung der Korrektheit. Um den Kompromiss zwischen Qualität und Kosten anzugehen, sind Lösungen erforderlich, die gleichzeitig die Skalierbarkeit und Kosteneffizienz des regelbasierten Strategieformalismus und die Optimalität des optimierungsbasierten Strategieformalismus als explizite Artefakte für die Anpassung berücksichtigen. Utility-Funktionen, d.h. Spezifikationen auf abstrakter Ebene, die Systemziele erfassen, unterstützen die explizite Behandlung des Qualität-Kosten-Kompromisses. Dennoch sind Nichtlinearitäten, komplexe dynamische Architekturen, Black-Box-Modelle und Laufzeitunsicherheit, die das Vorwissen überflüssig macht, einige der Quellen von Unsicherheit und Subjektivität, die die Utility-Erhöhung nicht trivial machen. Diese Arbeit schlägt eine zweifältige Lösung für die inkrementelle Selbstanpassung dynamischer Architekturen vor. Zunächst stellen wir Venus vor, eine Lösung, die in ihrem Design einen regel- und optimierungsbasierten Formalismus kombiniert und so eine optimale und skalierbare Anpassung dynamischer Architekturen ermöglicht. Venus enthält regelartige Konstrukte und nutzt die Utility-Theorie für die Entscheidungsfindung. Mithilfe einer graphbasierten Darstellung der Architektur erfasst Venus Regeln als Graphmuster, die Architekturfragmente darstellen, und ermöglicht so die Erweiterbarkeit zur Laufzeit und damit die Unterstützung dynamischer Architekturen. Die Architektur wird bewertet, indem den Fragmenten Utility-Werte zugewiesen werden. Die graphbasierte Definition von Regeln und Utility ermöglicht die inkrementelle Berechnung von Änderungen der Utility, die sich aus Regelausführungen ergeben, anstatt die gesamte Architektur zu bewerten, was die Skalierbarkeit verbessert. Des weiteren stellen wir HypeZon vor, eine Hybridlösung zur Laufzeitkoordination mehrerer Standardanpassungsstrategien, die typischerweise nur eine partielle Erfüllung der Qualitäts- und Kostenanforderungen bieten. HypeZon wurde auf der Grundlage der meta-selbstwahrnehmenden Architekturen umgesetzt und ergänzt Venus durch die Wiederverwendung bestehender Strategien zur Laufzeit, um den Kompromiss zwischen Qualität und Kosten auszubalancieren. Die zweifältige Lösung aus dieser Dissertation ist in eine Anpassungs-Engine integriert, die zustands- und ereignisbasierte Prinzipien für die inkrementelle Ausführung nutzt und daher für große und dynamische Softwarearchitekturen mit wachsender Größe und Komplexität skalierbar ist. Die Herausforderung der Erhöhung der Utility wird durch die Definition einer Methodik gelöst, die zum Trainieren von Modellen zur Vorhersage von Utility-Änderungen verwendet wird. Die Dissertation befasst sich mit dem Qualität-Kosten-Kompromiss bei der Anpassung dynamischer Softwarearchitekturen durch Entwurfszeitkombination (Venus) und Laufzeitkoordination (HypeZon) von regel- und optimierungsbasierten Strategieformalismen und bietet gleichzeitig unterstützende Mechanismen für optimale, kosteneffektive, skalierbare und robuste Anpassung. Die Lösungen werden nach einer Methodik bewertet, die auf unserer systematischen Literaturrecherche zur Bewertung von selbstheilenden Systemen basiert. Die Anwendbarkeit und Wirksamkeit der Lösungen geht nachweislich über den Stand der Technik hinaus und deckt ein breites Spektrum des Problembereichs der Software-Selbstanpassung ab. KW - self-healing KW - self-adaptive systems KW - architecture-based software adaptation KW - utility functions KW - prediction models KW - meta self-adaptation KW - model-driven engineering KW - scalable KW - architekturbasierte Softwareanpassung KW - Meta-Selbstanpassung KW - modellgesteuerte Entwicklung KW - Vorhersagemodelle KW - skalierbar KW - selbstanpassende Systeme KW - selbstheilende Systeme KW - Utility-Funktionen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-624232 ER -