TY - THES A1 - Vogel, Thomas T1 - Model-driven engineering of self-adaptive software T1 - Modellgetriebene Entwicklung von Selbst-Adaptiver Software N2 - The development of self-adaptive software requires the engineering of an adaptation engine that controls the underlying adaptable software by a feedback loop. State-of-the-art approaches prescribe the feedback loop in terms of numbers, how the activities (e.g., monitor, analyze, plan, and execute (MAPE)) and the knowledge are structured to a feedback loop, and the type of knowledge. Moreover, the feedback loop is usually hidden in the implementation or framework and therefore not visible in the architectural design. Additionally, an adaptation engine often employs runtime models that either represent the adaptable software or capture strategic knowledge such as reconfiguration strategies. State-of-the-art approaches do not systematically address the interplay of such runtime models, which would otherwise allow developers to freely design the entire feedback loop. This thesis presents ExecUtable RuntimE MegAmodels (EUREMA), an integrated model-driven engineering (MDE) solution that rigorously uses models for engineering feedback loops. EUREMA provides a domain-specific modeling language to specify and an interpreter to execute feedback loops. The language allows developers to freely design a feedback loop concerning the activities and runtime models (knowledge) as well as the number of feedback loops. It further supports structuring the feedback loops in the adaptation engine that follows a layered architectural style. Thus, EUREMA makes the feedback loops explicit in the design and enables developers to reason about design decisions. To address the interplay of runtime models, we propose the concept of a runtime megamodel, which is a runtime model that contains other runtime models as well as activities (e.g., MAPE) working on the contained models. This concept is the underlying principle of EUREMA. The resulting EUREMA (mega)models are kept alive at runtime and they are directly executed by the EUREMA interpreter to run the feedback loops. Interpretation provides the flexibility to dynamically adapt a feedback loop. In this context, EUREMA supports engineering self-adaptive software in which feedback loops run independently or in a coordinated fashion within the same layer as well as on top of each other in different layers of the adaptation engine. Moreover, we consider preliminary means to evolve self-adaptive software by providing a maintenance interface to the adaptation engine. This thesis discusses in detail EUREMA by applying it to different scenarios such as single, multiple, and stacked feedback loops for self-repairing and self-optimizing the mRUBiS application. Moreover, it investigates the design and expressiveness of EUREMA, reports on experiments with a running system (mRUBiS) and with alternative solutions, and assesses EUREMA with respect to quality attributes such as performance and scalability. The conducted evaluation provides evidence that EUREMA as an integrated and open MDE approach for engineering self-adaptive software seamlessly integrates the development and runtime environments using the same formalism to specify and execute feedback loops, supports the dynamic adaptation of feedback loops in layered architectures, and achieves an efficient execution of feedback loops by leveraging incrementality. N2 - Die Entwicklung von selbst-adaptiven Softwaresystemen erfordert die Konstruktion einer geschlossenen Feedback Loop, die das System zur Laufzeit beobachtet und falls nötig anpasst. Aktuelle Konstruktionsverfahren schreiben eine bestimmte Feedback Loop im Hinblick auf Anzahl und Struktur vor. Die Struktur umfasst die vorhandenen Aktivitäten der Feedback Loop (z. B. Beobachtung, Analyse, Planung und Ausführung einer Adaption) und die Art des hierzu verwendeten Systemwissens. Dieses System- und zusätzlich das strategische Wissen (z. B. Adaptionsregeln) werden in der Regel in Laufzeitmodellen erfasst und in die Feedback Loop integriert. Aktuelle Verfahren berücksichtigen jedoch nicht systematisch die Laufzeitmodelle und deren Zusammenspiel, so dass Entwickler die Feedback Loop nicht frei entwerfen und gestalten können. Folglich wird die Feedback Loop während des Entwurfs der Softwarearchitektur häufig nicht explizit berücksichtigt. Diese Dissertation stellt mit EUREMA ein neues Konstruktionsverfahren für Feedback Loops vor. Basierend auf Prinzipien der modellgetriebenen Entwicklung (MDE) setzt EUREMA auf die konsequente Nutzung von Modellen für die Konstruktion, Ausführung und Adaption von selbst-adaptiven Softwaresystemen. Hierzu wird eine domänenspezifische Modellierungssprache (DSL) vorgestellt, mit der Entwickler die Feedback Loop frei entwerfen und gestalten können, d. h. ohne Einschränkung bezüglich der Aktivitäten, Laufzeitmodelle und Anzahl der Feedback Loops. Zusätzlich bietet die DSL eine Architektursicht auf das System, die die Feedback Loops berücksichtigt. Daher stellt die DSL Konstrukte zur Verfügung, mit denen Entwickler während des Entwurfs der Architektur die Feedback Loops explizit definieren und berücksichtigen können. Um das Zusammenspiel der Laufzeitmodelle zu erfassen, wird das Konzept eines sogenannten Laufzeitmegamodells vorgeschlagen, das alle Aktivitäten und Laufzeitmodelle einer Feedback Loop erfasst. Dieses Konzept dient als Grundlage der vorgestellten DSL. Die bei der Konstruktion und mit der DSL erzeugten (Mega-)Modelle werden zur Laufzeit bewahrt und von einem Interpreter ausgeführt, um das spezifizierte Adaptionsverhalten zu realisieren. Der Interpreteransatz bietet die notwendige Flexibilität, um das Adaptionsverhalten zur Laufzeit anzupassen. Dies ermöglicht über die Entwicklung von Systemen mit mehreren Feedback Loops auf einer Ebene hinaus das Schichten von Feedback Loops im Sinne einer adaptiven Regelung. Zusätzlich bietet EUREMA eine Schnittstelle für Wartungsprozesse an, um das Adaptionsverhalten im laufendem System anzupassen. Die Dissertation diskutiert den EUREMA-Ansatz und wendet diesen auf verschiedene Problemstellungen an, u. a. auf einzelne, mehrere und koordinierte als auch geschichtete Feedback Loops. Als Anwendungsbeispiel dient die Selbstheilung und Selbstoptimierung des Online-Marktplatzes mRUBiS. Für die Evaluierung von EUREMA werden Experimente mit dem laufenden mRUBiS und mit alternativen Lösungen durchgeführt, das Design und die Ausdrucksmächtigkeit der DSL untersucht und Qualitätsmerkmale wie Performanz und Skalierbarkeit betrachtet. Die Ergebnisse der Evaluierung legen nahe, dass EUREMA als integrierter und offener Ansatz für die Entwicklung selbst-adaptiver Softwaresysteme folgende Beiträge zum Stand der Technik leistet: eine nahtlose Integration der Entwicklungs- und Laufzeitumgebung durch die konsequente Verwendung von Modellen, die dynamische Anpassung des Adaptionsverhaltens in einer Schichtenarchitektur und eine effiziente Ausführung von Feedback Loops durch inkrementelle Verarbeitungsschritte. KW - model-driven engineering KW - self-adaptive software KW - domain-specific modeling KW - runtime models KW - software evolution KW - modellgetriebene Entwicklung KW - Selbst-Adaptive Software KW - Domänenspezifische Modellierung KW - Laufzeitmodelle KW - Software-Evolution Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409755 ER - TY - THES A1 - Ramos, Catalina T1 - Structure and petrophysical properties of the Southern Chile subduction zone along 38.25°S from seismic data T1 - Struktur und petrophysikalische Eigenschaften der südlichen Chile-Subduktionszone bei 38.25°S anhand seismischer Daten N2 - Active and passive source data from two seismic experiments within the interdisciplinary project TIPTEQ (from The Incoming Plate to mega Thrust EarthQuake processes) were used to image and identify the structural and petrophysical properties (such as P- and S-velocities, Poisson's ratios, pore pressure, density and amount of fluids) within the Chilean seismogenic coupling zone at 38.25°S, where in 1960 the largest earthquake ever recorded (Mw 9.5) occurred. Two S-wave velocity models calculated using traveltime and noise tomography techniques were merged with an existing velocity model to obtain a 2D S-wave velocity model, which gathered the advantages of each individual model. In a following step, P- and S-reflectivity images of the subduction zone were obtained using different pre stack and post-stack depth migration techniques. Among them, the recent prestack line-drawing depth migration scheme yielded revealing results. Next, synthetic seismograms modelled using the reflectivity method allowed, through their input 1D synthetic P- and S-velocities, to infer the composition and rocks within the subduction zone. Finally, an image of the subduction zone is given, jointly interpreting the results from this work with results from other studies. The Chilean seismogenic coupling zone at 38.25°S shows a continental crust with highly reflective horizontal, as well as (steep) dipping events. Among them, the Lanalhue Fault Zone (LFZ), which is interpreted to be east-dipping, is imaged to very shallow depths. Some steep reflectors are observed for the first time, for example one near the coast, related to high seismicity and another one near the LFZ. Steep shallow reflectivity towards the volcanic arc could be related to a steep west-dipping reflector interpreted as fluids and/or melts, migrating upwards due to material recycling in the continental mantle wedge. The high resolution of the S-velocity model in the first kilometres allowed to identify several sedimentary basins, characterized by very low P- and S-velocities, high Poisson's ratios and possible steep reflectivity. Such high Poisson's ratios are also observed within the oceanic crust, which reaches the seismogenic zone hydrated due to bending-related faulting. It is interpreted to release water until reaching the coast and under the continental mantle wedge. In terms of seismic velocities, the inferred composition and rocks in the continental crust is in agreement with field geology observations at the surface along the proflle. Furthermore, there is no requirement to call on the existence of measurable amounts of present-day fluids above the plate interface in the continental crust of the Coastal Cordillera and the Central Valley in this part of the Chilean convergent margin. A large-scale anisotropy in the continental crust and upper mantle, previously proposed from magnetotelluric studies, is proposed from seismic velocities. However, quantitative studies on this topic in the continental crust of the Chilean seismogenic zone at 38.25°S do not exist to date. N2 - Innerhalb des interdisziplinären Projektes TIPTEQ (from The Incoming Plate to mega Thrust EarthQuake processes) wurden aktive und passive Quelldaten zweier seismischer Experimente verwendet, um die strukturellen und petrophysikalischen Eigenschaften (wie zum Beispiel P- und S-Geschwindigkeiten, Poissonsverh ältnisse, Porendruck, Dichte und Flüssigkeitsmenge) in der chilenischen seismogenen Kopplungszone bei 38.25°S darzustellen und zu identifizieren, wo im Jahr 1960 das stärkste je gemessene Erdbeben (Mw 9.5) stattgefunden hat. Zwei Modelle für S-Wellengeschwindigkeiten, basierend auf Techniken für Laufzeiten und Rausch-Tomographie, wurden mit einem existierenden Geschwindigkeitsmodell zu einem 2D-Modell für S-Wellengeschwindigkeiten verbunden, welches der Vorteile der einzelnen Modellkomponenten vereint. Im nächsten Schritt wurden verschiedene pre-stack und post-stack Techniken der Tiefenmigration verwendet, um Bilder der P- und S-Reflektivität zu erhalten. Von diesen Techniken hat das jüngste Schema der pre-stack Linienzug-Tiefenmigration die erkenntnisreichtsen Ergebnisse geliefert. Darauf aufbauend erlauben synthetische Seismogramme, welche die Reflektivitätsmethode verwenden, durch Eingabe der synthetischen 1-D P- und S-Geschwindigkeiten, auf die Komposition und auf Gesteine in der Subduktionszone rückzuschlie ÿen. Schlieÿlich wird ein Bild der Subduktionszone gezeigt, welche die Ergebnisse dieser Arbeit im Zusammenhang mit weiteren Studien interpretiert. Die chilenische seismogene Kopplungszone bei 38.25°S zeigt eine kontinentale Kruste mit sowohl hochgradig reflektierenden horizontalen als auch (steil) geneigten Strukturen. Unter diesen ist die Lanalhue-Bruchzone (LFZ), welche östlich abtaucht, auf sehr flache Tiefen abgebildet. Einige steile Reflektoren wurden zum ersten Mal beobachtet, zum Beispiel nahe der Küste verbunden mit hoher Seismizität, und nahe der LFZ. Steile oberflächliche Reflektivität hin zum vulkanischen Bogen konnten mit einem steilen westlich abtauchenden Reflektor verbunden werden. Dieser besteht wahrscheinlich aus Flüssigkeit oder geschmolzenem Material, welches sich durch Materialrecycling im kontinentalen Mantelkeil aufwärts bewegt. Die hohe Auflösung des S-Geschwindigkeitsmodells in den ersten Kilometern erlaubte es, mehrere sedimentäre Becken zu identifizieren, die sich durch sehr niedrige P- und S-Geschwindigkeiten, hohe Poissonsverhältinesse und mögliche steile reflektivität auszeichnen. Solch hohen Poissonverhältinesse wurden auch in der ozeanischen Kruste beobachtet, welche die seismogene Zone durch krümmungsverursachte Abbrüche hydriert erreicht. Das Wasser wird dabei an der Küste und unter dem kontinentalen Mantelkeil freigesetzt. Mit Hinsicht auf seismische Geschwindigkeiten stimmen die hergeleitete Komposition und Gesteinsverteilung in der kontinentalen Kruste mit geologischen Feldbeobachtungen an der Oberfläche des Profils überein. Des Weiteren zeigt sich keine Notwendigkeit für die Existenz von messbaren Mengen an gegenwärtigen Flüssigkeiten über der Plattengrenze in der kontinentalen Kruste der küstennahen Kordilleren und dem Zentraltal in diesem Teil der chilenischen Konvergenzspanne. Anhand der seismischen Geschwindigkeiten wird eine groÿskalige Anisotropie in der kontinentalen Kruste und im oberen Mantel vorgeschlagen, wie schon zuvor durch magnetotellurische Studien. Jedoch existieren bis heute keine Studien zu diesem Thema für die kontinentale Kruste der chilenische seismogenen Zone bei 38.25°S. KW - active source data KW - seismogenic coupling zone KW - South America KW - reflection seismics KW - seismic tomography KW - synthetic seismograms KW - aktive Quelldaten KW - seismogene Kopplungszone KW - Südamerika KW - Reflexionsseismik KW - seismische Tomographie KW - synthetische Seismogramme Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409183 ER - TY - THES A1 - Behrens, Ricarda T1 - Causes for slow weathering and erosion in the steep, warm, monsoon-subjected Highlands of Sri Lanka T1 - Ursache von langsamer Verwitterung und Erosion im steilen, warmen und Monsun-beeinflussten Hochland von Sri Lanka N2 - In the Highlands of Sri Lanka, erosion and chemical weathering rates are among the lowest for global mountain denudation. In this tropical humid setting, highly weathered deep saprolite profiles have developed from high-grade metamorphic charnockite during spheroidal weathering of the bedrock. The spheroidal weathering produces rounded corestones and spalled rindlets at the rock-saprolite interface. I used detailed textural, mineralogical, chemical, and electron-microscopic (SEM, FIB, TEM) analyses to identify the factors limiting the rate of weathering front advance in the profile, the sequence of weathering reactions, and the underlying mechanisms. The first mineral attacked by weathering was found to be pyroxene initiated by in situ Fe oxidation, followed by in situ biotite oxidation. Bulk dissolution of the primary minerals is best described with a dissolution – re-precipitation process, as no chemical gradients towards the mineral surface and sharp structural boundaries are observed at the nm scale. Only the local oxidation in pyroxene and biotite is better described with an ion by ion process. The first secondary phases are oxides and amorphous precipitates from which secondary minerals (mainly smectite and kaolinite) form. Only for biotite direct solid state transformation to kaolinite is likely. The initial oxidation of pyroxene and biotite takes place in locally restricted areas and is relatively fast: log J = -11 molmin/(m2 s). However, calculated corestone-scale mineral oxidation rates are comparable to corestone-scale mineral dissolution rates: log R = -13 molpx/(m2 s) and log R = -15 molbt/(m2 s). The oxidation reaction results in a volume increase. Volumetric calculations suggest that this observed oxidation leads to the generation of porosity due to the formation of micro-fractures in the minerals and the bedrock allowing for fluid transport and subsequent dissolution of plagioclase. At the scale of the corestone, this fracture reaction is responsible for the larger fractures that lead to spheroidal weathering and to the formation of rindlets. Since these fractures have their origin from the initial oxidational induced volume increase, oxidation is the rate limiting parameter for weathering to take place. The ensuing plagioclase weathering leads to formation of high secondary porosity in the corestone over a distance of only a few cm and eventually to the final disaggregation of bedrock to saprolite. As oxidation is the first weathering reaction, the supply of O2 is a rate-limiting factor for chemical weathering. Hence, the supply of O2 and its consumption at depth connects processes at the weathering front with erosion at the surface in a feedback mechanism. The strength of the feedback depends on the relative weight of advective versus diffusive transport of O2 through the weathering profile. The feedback will be stronger with dominating diffusive transport. The low weathering rate ultimately depends on the transport of O2 through the whole regolith, and on lithological factors such as low bedrock porosity and the amount of Fe-bearing primary minerals. In this regard the low-porosity charnockite with its low content of Fe(II) bearing minerals impedes fast weathering reactions. Fresh weatherable surfaces are a pre-requisite for chemical weathering. However, in the case of the charnockite found in the Sri Lankan Highlands, the only process that generates these surfaces is the fracturing induced by oxidation. Tectonic quiescence in this region and low pre-anthropogenic erosion rate (attributed to a dense vegetation cover) minimize the rejuvenation of the thick and cohesive regolith column, and lowers weathering through the feedback with erosion. N2 - Erosions- und chemische Verwitterungsraten im srilankischen Hochland gehören zu den langsamsten der globalen Gebirgsdenudationsraten. In diesem tropischen, humiden Gebiet entwickelten sich mächtige Verwitterungsprofile – sogenannte Saprolite – auf spheroidal verwittertem, hochgradig metamorphen Charnockit. Spheroidale Verwitterung führt zu abgerundeten „corestones“ mit abgesplitterten Rinden („rindlets“) an der Gesteins – Saprolit Grenze. Zur Identifizierung der ratenlimitierenden Faktoren des Fortschreiten der Verwitterungsfront, der Sequenz der Verwitterungsreaktionen und der dahinterliegenden Mechanismen nutzte ich detaillierte gesteinsstrukturelle, mineralogische, chemische und elektronenmikroskopische (SEM, FIB, TEM) Analysemethoden. Die initiale Verwitterung beginnt mit lokal begrenzter in situ Oxidation in Pyroxen, gefolgt von in situ Oxidation von Biotit. Die Auflösung der Minerale wird am besten durch einen Auflöse – Wiederausfällungs-prozess beschrieben, da zur Mineralgrenze hin keine chemischen Gradienten, dafür aber auf der nm-Skala scharfe strukturelle Grenzen zu beobachten sind. Die ersten ausfallenden Sekundärphasen sind Oxide und amorphe Phasen aus denen sich Sekundärmineral (hauptsächlich Smectit und Kaolinit) bilden. Für Biotit ist auch eine direkte Umwandlung im Festzustand zu Kaolinit möglich. Die initiale Pyroxen- und Biotitoxidation ist relativ schnell: log J = -11 molmin/(m2 s). Berechnete Oxidationsraten auf der corestone-Skala (cm) sind vergleichbar zu Auflöseraten auf derselben Skala: log R = -13 molpx/(m2 s) und log R = -15 molbt/(m2 s). Volumetrische Berechnungen führen zum Schluss, dass die Oxidation mit einhergehender Volumenzunahme zur Entwicklung von Mikrofrakturen in den Mineralen und dem Gesamtgestein führt. Diese begünstigen Fluidtransport und damit einhergehende Plagioklasverwitterung. Des Weiteren ist diese Oxidationsreaktion verantwortlich für die Entstehung der Frakturen bei spheroidaler Verwitterung des Gesteins, welche die „rindlets“ vom „corestone“ abgrenzen. Daraus kann geschlossen werden, dass in situ Oxidation der ratenlimitierende Prozess bei der Verwitterung ist. Plagioklasverwitterung führt zu einer hohen Porositätszunahme und der endgültigen Umwandlung von Gestein zu Saprolit. Da Oxidation die erste Verwitterungsreaktion ist, verbinden die Zuführung und der Verbrauch von O2 zur, beziehungsweise an die Verwitterungsfront Erosion an der Oberfläche mit Prozessen an der Verwitterungsfront über einen Feedbackmechanismus. Daher hängt die langsame Verwitterungsrate letztlich vom Sauerstofftransport durch das Verwitterungsprofil und von lithologischen Faktoren des Charnockit wie zum Beispiel geringe Gesteinsporosität und/oder wenige Fe(II)-haltige Primärminerale ab. Des Weiteren ist der einzige Prozess im Charnockit der frische verwitterbare Oberflächen (eine Voraussetzung für chemische Verwitterung) generiert die oxidations-induzierte Frakturierung. Darüber hinaus minimieren die Abwesenheit von tektonischer Aktivität und geringe prä-anthropogene Erosionsraten in dieser Region den Abtrag des mächtigen und kohäsiven Verwitterungsprofils und somit über den beschriebenen Feedback auch die chemische Verwitterungsrate. KW - Sri Lanka KW - chemical weathering KW - erosion KW - saprolite KW - weathering feedback KW - charnockite KW - critical zone KW - mineral weathering reactions KW - Sri Lanka KW - chemische Verwitterung KW - Erosion KW - Saprolit KW - Verwitterungsfeedback KW - Charnockit KW - kritische Zone KW - Mineralverwitterungsreaktionen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408503 ER - TY - THES A1 - Pufahl, Luise T1 - Modeling and executing batch activities in business processes T1 - Modellierung und Ausführung von Batch-Aktivitäten in Geschäftsprozessen N2 - Business process automation improves organizations’ efficiency to perform work. Therefore, a business process is first documented as a process model which then serves as blueprint for a number of process instances representing the execution of specific business cases. In existing business process management systems, process instances run independently from each other. However, in practice, instances are also collected in groups at certain process activities for a combined execution to improve the process performance. Currently, this so-called batch processing is executed manually or supported by external software. Only few research proposals exist to explicitly represent and execute batch processing needs in business process models. These works also lack a comprehensive understanding of requirements. This thesis addresses the described issues by providing a basic concept, called batch activity. It allows an explicit representation of batch processing configurations in process models and provides a corresponding execution semantics, thereby easing automation. The batch activity groups different process instances based on their data context and can synchronize their execution over one or as well multiple process activities. The concept is conceived based on a requirements analysis considering existing literature on batch processing from different domains and industry examples. Further, this thesis provides two extensions: First, a flexible batch configuration concept, based on event processing techniques, is introduced to allow run time adaptations of batch configurations. Second, a concept for collecting and batching activity instances of multiple different process models is given. Thereby, the batch configuration is centrally defined, independently of the process models, which is especially beneficial for organizations with large process model collections. This thesis provides a technical evaluation as well as a validation of the presented concepts. A prototypical implementation in an existing open-source BPMS shows that with a few extensions, batch processing is enabled. Further, it demonstrates that the consolidated view of several work items in one user form can improve work efficiency. The validation, in which the batch activity concept is applied to different use cases in a simulated environment, implies cost-savings for business processes when a suitable batch configuration is used. For the validation, an extensible business process simulator was developed. It enables process designers to study the influence of a batch activity in a process with regards to its performance. N2 - Die Automatisierung von Geschäftsprozessen verbessert die Effizienz von Organisationen im Bearbeiten ihrer Aufgaben. Dafür wird ein Geschäftsprozess zunächst als Prozessmodell dokumentiert, der dann als Vorlage für eine Menge von Prozessinstanzen, welche die Ausführung von Geschäftsfällen repräsentieren, dient. In existierenden Prozessmanagement-Systemen werden Prozessinstanzen komplett unabhängig voneinander ausgeführt. In der Praxis jedoch werden Instanzen häufig zur Verbesserung der Prozessperformance an bestimmten Prozessaktivitäten in Gruppen gesammelt, um diese gebündelt auszuführen. Das sogenannte Batch Processing wird zurzeit nur manuell oder durch externe Software unterstützt. Wenige Forschungsarbeiten existieren, um Batch Processing-Konfigurationen in Prozessmodellen explizit zu repräsentieren und sie automatisiert auszuführen. Zusätzlich fehlt es diesen Arbeiten an einem umfassenden Verständnis der Anforderungen. Die vorliegende Dissertation befasst sich mit den oben genannten Fragestellungen, indem ein Batch Activity-Konzept entwickelt wird. Dieses erlaubt es Batch Processing-Aktivitäten in Geschäftsprozessen zu spezifizieren als auch zu konfigurieren und mittels einer zusätzlich bereitgestellten Ausführungssemantik zu automatisieren. Die Batch Activity kann verschiedene Prozessinstanzen auf Basis ihres Datenkontextes gruppieren und deren Ausführung über ein oder mehrere Aktivitäten synchronisieren. Das Konzept basiert auf einer Anforderungsanalyse, welche existierende Forschungsarbeiten zum Thema des Batch Processings aus unterschiedlichen Domänen als auch Praxisbeispiele berücksichtigt. Weiterhin werden zwei Erweiterungen des Basiskonzeptes in dieser Arbeit vorgestellt: Erstens wird ein Konzept zur flexiblen Anpassung der Batch-Konfiguration zur Ausführungszeit basierend auf Techniken der Ereignisverarbeitung vorgestellt. Zweitens wird ein Konzept eingeführt, um Aktivitätsinstanzen von verschiedenen Prozessmodellen zu sammeln und zu konsolidieren. Dabei wird die Batch-Konfiguration unabhängig von Prozessmodellen zentral definiert, was besonders für Unternehmen mit großen Prozesssammlungen hilfreich ist. Die vorliegende Dissertation beinhaltet eine technische Evaluation als auch eine Validierung der eingeführten Konzepte. Eine prototypische Implementierung in ein bestehendes, open-source Prozessmanagement-System zeigt, dass Batch Processing mit wenigen Erweiterungen integriert werden kann. Zusätzlich wird demonstriert, dass die konsolidierte Darstellung von mehreren Prozessfällen in einer Benutzeransicht die Arbeitsleistung von Endanwendern verbessern kann. Die Validierung, in der das Batch Activity-Konzept in unterschiedlichen Anwendungsfällen in einer simulierten Umgebung eingesetzt wird, impliziert Prozesskosteneinsparungen, wenn eine geeignete Batch-Konfiguration gewählt wird. Für die Validierung wurde ein erweiterbarer Geschäftsprozesssimulator entwickelt. Dieser ermöglicht es Prozessmodellierern, den Einfluss einer Batch Activity auf einen Prozess mit Hinblick auf dessen Performance zu untersuchen. KW - business process KW - batch activity KW - process modeling KW - process execution KW - batch processing KW - Geschäftsprozess KW - Batch-Aktivität KW - Prozessmodellierung KW - Prozessausführung KW - Stapelverarbeitung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408013 ER - TY - THES A1 - Ostrowski, Max T1 - Modern constraint answer set solving T1 - Moderne Constraint Antwortmengenprogrammierung N2 - Answer Set Programming (ASP) is a declarative problem solving approach, combining a rich yet simple modeling language with high-performance solving capabilities. Although this has already resulted in various applications, certain aspects of such applications are more naturally modeled using variables over finite domains, for accounting for resources, fine timings, coordinates, or functions. Our goal is thus to extend ASP with constraints over integers while preserving its declarative nature. This allows for fast prototyping and elaboration tolerant problem descriptions of resource related applications. The resulting paradigm is called Constraint Answer Set Programming (CASP). We present three different approaches for solving CASP problems. The first one, a lazy, modular approach combines an ASP solver with an external system for handling constraints. This approach has the advantage that two state of the art technologies work hand in hand to solve the problem, each concentrating on its part of the problem. The drawback is that inter-constraint dependencies cannot be communicated back to the ASP solver, impeding its learning algorithm. The second approach translates all constraints to ASP. Using the appropriate encoding techniques, this results in a very fast, monolithic system. Unfortunately, due to the large, explicit representation of constraints and variables, translation techniques are restricted to small and mid-sized domains. The third approach merges the lazy and the translational approach, combining the strength of both while removing their weaknesses. To this end, we enhance the dedicated learning techniques of an ASP solver with the inferences of the translating approach in a lazy way. That is, the important knowledge is only made explicit when needed. By using state of the art techniques from neighboring fields, we provide ways to tackle real world, industrial size problems. By extending CASP to reactive solving, we open up new application areas such as online planning with continuous domains and durations. N2 - Die Antwortmengenprogrammierung (ASP) ist ein deklarativer Ansatz zur Problemlösung. Eine ausdrucksstarke Modellierungssprache erlaubt es, Probleme einfach und flexibel zu beschreiben. Durch sehr effiziente Problemlösungstechniken, konnten bereits verschiedene Anwendungsgebiete erschlossen werden. Allerdings lassen sich Probleme mit Ressourcen besser mit Gleichungen über Ganze oder Reelle Zahlen lösen, anstatt mit reiner Boolescher Logik. In dieser Arbeit erweitern wir ASP mit Arithmetik über Ganze Zahlen zu Constraint Answer Set Programming (CASP). Unser Hauptaugenmerk liegt dabei auf der Erweiterung der Modellierungssprache mit Arithmetik, ohne Performanz oder Flexibilität einzubüßen. In einem ersten, bedarfsgesteuertem, modularen Ansatz kombinieren wir einen ASP Solver mit einem externen System zur Lösung von ganzzahligen Gleichungen. Der Vorteil dieses Ansatzes besteht darin, dass zwei verschiedene Technologien Hand in Hand arbeiten, wobei jede nur ihren Teil des Problems betrachten muss. Ein Nachteil der sich daraus ergibt ist jedoch, dass Abhängigkeiten zwischen den Gleichungen nicht an den ASP Solver kommuniziert werden können. Das beeinträchtigt die Lernfähigkeit des zu Grunde liegenden Algorithmus. Der zweite von uns verfolgte Ansatz übersetzt die ganzzahligen Gleichungen direkt nach ASP. Durch entsprechende Kodierungstechniken erhält man ein sehr effizientes, monolithisches System. Diese Übersetzung erfordert eine explizite Darstellung aller Variablen und Gleichungen. Daher ist dieser Ansatz nur für kleine bis mittlere Wertebereiche geeignet. Die dritte Methode, die wir in dieser Arbeit vorstellen, vereinigt die Vorteile der beiden vorherigen Ansätze und überwindet ihre Kehrseiten. Wir entwickeln einen lernenden Algorithmus, der die Arithmetik implizit lässt. Dies befreit uns davon, eine möglicherweise riesige Menge an Variablen und Formeln zu speichern, und erlaubt es uns gleichzeitig dieses Wissen zu nutzen. Das Ziel dieser Arbeit ist es, durch die Kombination hochmoderner Technologien, industrielle Anwendungsgebiete für ASP zu erschliessen. Die verwendeten Techniken erlauben eine Erweiterung von CASP mit reaktiven Elementen. Das heißt, dass das Lösen des Problems ein interaktiver Prozess wird. Das Problem kann dabei ständig verändert und erweitert werden, ohne dass Informationen verloren gehen oder neu berechnet werden müssen. Dies eröffnet uns neue Möglichkeiten, wie zum Beispiel reaktives Planen mit Ressourcen und Zeiten. KW - ASP (Answer Set Programming) KW - CASP (Constraint Answer Set Programming) KW - constraints KW - hybrid KW - SMT (SAT Modulo Theories) KW - Antwortmengenprogrammierung KW - hybrides Problemlösen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407799 ER - TY - THES A1 - Smith, Taylor T1 - Decadal changes in the snow regime of High Mountain Asia, 1987-2016 T1 - Veränderungen in der Schnee-Regen-Bilanz auf dekadischen Zeitskalen im zentralasiatischen Hochgebirge (1987-2016) N2 - More than a billion people rely on water from rivers sourced in High Mountain Asia (HMA), a significant portion of which is derived from snow and glacier melt. Rural communities are heavily dependent on the consistency of runoff, and are highly vulnerable to shifts in their local environment brought on by climate change. Despite this dependence, the impacts of climate change in HMA remain poorly constrained due to poor process understanding, complex terrain, and insufficiently dense in-situ measurements. HMA's glaciers contain more frozen water than any region outside of the poles. Their extensive retreat is a highly visible and much studied marker of regional and global climate change. However, in many catchments, snow and snowmelt represent a much larger fraction of the yearly water budget than glacial meltwaters. Despite their importance, climate-related changes in HMA's snow resources have not been well studied. Changes in the volume and distribution of snowpack have complex and extensive impacts on both local and global climates. Eurasian snow cover has been shown to impact the strength and direction of the Indian Summer Monsoon -- which is responsible for much of the precipitation over the Indian Subcontinent -- by modulating earth-surface heating. Shifts in the timing of snowmelt have been shown to limit the productivity of major rangelands, reduce streamflow, modify sediment transport, and impact the spread of vector-borne diseases. However, a large-scale regional study of climate impacts on snow resources had yet to be undertaken. Passive Microwave (PM) remote sensing is a well-established empirical method of studying snow resources over large areas. Since 1987, there have been consistent daily global PM measurements which can be used to derive an estimate of snow depth, and hence snow-water equivalent (SWE) -- the amount of water stored in snowpack. The SWE estimation algorithms were originally developed for flat and even terrain -- such as the Russian and Canadian Arctic -- and have rarely been used in complex terrain such as HMA. This dissertation first examines factors present in HMA that could impact the reliability of SWE estimates. Forest cover, absolute snow depth, long-term average wind speeds, and hillslope angle were found to be the strongest controls on SWE measurement reliability. While forest density and snow depth are factors accounted for in modern SWE retrieval algorithms, wind speed and hillslope angle are not. Despite uncertainty in absolute SWE measurements and differences in the magnitude of SWE retrievals between sensors, single-instrument SWE time series were found to be internally consistent and suitable for trend analysis. Building on this finding, this dissertation tracks changes in SWE across HMA using a statistical decomposition technique. An aggregate decrease in SWE was found (10.6 mm/yr), despite large spatial and seasonal heterogeneities. Winter SWE increased in almost half of HMA, despite general negative trends throughout the rest of the year. The elevation distribution of these negative trends indicates that while changes in SWE have likely impacted glaciers in the region, climate change impacts on these two pieces of the cryosphere are somewhat distinct. Following the discussion of relative changes in SWE, this dissertation explores changes in the timing of the snowmelt season in HMA using a newly developed algorithm. The algorithm is shown to accurately track the onset and end of the snowmelt season (70% within 5 days of a control dataset, 89% within 10). Using a 29-year time series, changes in the onset, end, and duration of snowmelt are examined. While nearly the entirety of HMA has experienced an earlier end to the snowmelt season, large regions of HMA have seen a later start to the snowmelt season. Snowmelt periods have also decreased in almost all of HMA, indicating that the snowmelt season is generally shortening and ending earlier across HMA. By examining shifts in both the spatio-temporal distribution of SWE and the timing of the snowmelt season across HMA, we provide a detailed accounting of changes in HMA's snow resources. The overall trend in HMA is towards less SWE storage and a shorter snowmelt season. However, long-term and regional trends conceal distinct seasonal, temporal, and spatial heterogeneity, indicating that changes in snow resources are strongly controlled by local climate and topography, and that inter-annual variability plays a significant role in HMA's snow regime. N2 - Mehr als eine Milliarde Menschen ist von Wasser aus Flüssen, welche im Hochgebirge Asiens (HA) entspringen, abhängig. Diese werden, im Wesentlichen durch Schmelzwasser von Schnee und Gletschern gespeist. Gemeinden auf dem Land sind im hohem Maße auf die Beständigkeit des Wasserabflusses angewiesen, und folglich stark anfällig für durch Klimawandel hervorgerufene Veränderungen der Umwelt auf regionaler Ebene. Der extensive Gletscherrückzug ist ein deutlich sichtbarer und weitgehend erforschter Marker für den Klimawandel auf regionaler und globaler Ebene. In vielen Einzugsgebieten machen jedoch Schnee und Schneeschmelzen einen sehr viel größeren Anteil des jährlichen Wasserbudgets aus also Gletscherschmelzwasser. Dennoch sind die klimaabhängigen Veränderungen auf Schneeressourcen im HA nicht ausreichend untersucht. Passive Mikrowellenradiometer (PM) basierte Fernerkundung ist eine etablierte empirische Methode zur Untersuchung von Schneeressourcen in weit ausgedehnten Gebieten. Seit 1987 wurden täglich konsistente PM Messungen auf globaler Ebene durchgeführt, die zur Abschätzung der Schneehöhe verwendet werden können, und folglich den Anteil des Wassers in der Schneemasse wiederspiegeln – das Schneewasser Äquivalent (SWE). In dieser Studie die lokalen Veränderungen des SWE über dem gesamten HA untersucht. Trotz großer räumlicher und saisonaler Heterogenität, wurde eine Gesamtverringerung des SWE (10,6 mm/yr) festgestellt. Im Winter jedoch hat das SWE in etwa 50% des HAs trotz der negativen Trends im restlichen Verlauf des Jahres zugenommen. Wie aus der Diskussion über die relativen Veränderungen im SWE hervorgeht, wird in dieser Studie mithilfe eines neuentwickelten Algorithmus die Untersuchung der Veränderungen des Zeitlichen einsetzen der Schneeschmelzperiode im HA. Während im nahezu gesamten Gebiet des HA das Ende Schneeschmelzsaison verfrüht einsetzt, so ist in der Hälfte des Gebietes der Begin dieser nach hinten verschoben. Die Schneeschmelzperioden haben im so gut wie gesamten Gebiet des HA abgenommen, was darauf hindeutet dass sich diese über dem gesamten HA generell verkürzt haben und frühzeitig beendet werden. Durch die Untersuchung der räumlich-zeitlichen Verteilung der Schneevolumens und des Schneeschmelzperioden im gesamten HA konnten wir eine lückenlose Bilanz der Veränderungen der Schneeressourcen im HA erstellen. Der allgemeine Trend zeigt eine geringere Speicherung des SWE und kürzere Schneeschmelzperioden im gesamten HA. Langfristige und regionale Trends überdecken jedoch verschiedene saisonale, temporäre und räumliche Heterogenität, was wiederum zeigt dass Veränderungen der Schneebedeckung stark von lokalem Klima und der Topographie abhängen, und dass jährliche Schwankungen zu einem erheblichen Anteil zum Schneeregime des HA beitragen. KW - climate change KW - snow KW - remote sensing KW - Schnee KW - Klimawandel KW - Fernerkundung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407120 ER - TY - THES A1 - Siegmund, Jonatan Frederik T1 - Quantifying impacts of climate extreme events on vegetation T1 - Über die Quantifizierung des Einflusses extremer Klimaereignisse auf Vegetation BT - event coincidence analysis and its applications across scales BT - die Event Koinzidenz Analyse und deren Anwendung auf verschiedenen Skalen N2 - Together with the gradual change of mean values, ongoing climate change is projected to increase frequency and amplitude of temperature and precipitation extremes in many regions of Europe. The impacts of such in most cases short term extraordinary climate situations on terrestrial ecosystems are a matter of central interest of recent climate change research, because it can not per se be assumed that known dependencies between climate variables and ecosystems are linearly scalable. So far, yet, there is a high demand for a method to quantify such impacts in terms of simultaneities of event time series. In the course of this manuscript the new statistical approach of Event Coincidence Analysis (ECA) as well as it's R implementation is introduced, a methodology that allows assessing whether or not two types of event time series exhibit similar sequences of occurrences. Applications of the method are presented, analyzing climate impacts on different temporal and spacial scales: the impact of extraordinary expressions of various climatic variables on tree stem variations (subdaily and local scale), the impact of extreme temperature and precipitation events on the owering time of European shrub species (weekly and country scale), the impact of extreme temperature events on ecosystem health in terms of NDVI (weekly and continental scale) and the impact of El Niño and La Niña events on precipitation anomalies (seasonal and global scale). The applications presented in this thesis refine already known relationships based on classical methods and also deliver substantial new findings to the scientific community: the widely known positive correlation between flowering time and temperature for example is confirmed to be valid for the tails of the distributions while the widely assumed positive dependency between stem diameter variation and temperature is shown to be not valid for very warm and very cold days. The larger scale investigations underline the sensitivity of anthrogenically shaped landscapes towards temperature extremes in Europe and provide a comprehensive global ENSO impact map for strong precipitation events. Finally, by publishing the R implementation of the method, this thesis shall enable other researcher to further investigate on similar research questions by using Event Coincidence Analysis. N2 - Neben der graduellen Änderung der mittleren klimatischen Bedingungen wird für viele Regionen Europas ein Anstieg in Häufigkeit und Intensität der Temperatur- und Niederschlagsextreme projiziert. Die Auswirkungen solcher meist nur kurz anhaltenden Klimaextreme auf terrestrische Ökosysteme sind zentraler Bestandteile aktueller Klimaforschung, weil nicht per se davon ausgegangen werden kann, dass Abhängihkeitsverhältnisse zwischen Klima- und Umweltvariblen linear skalierbar sind. Weil klimatische Extremereignisse selten und in der Regel nur von kurzer Dauer sind, wird für Untersuchungen über deren Auswirkungen eine analytische Methode benötigt, welche es erlaubt die Gleichzeitigkeit von Events in zwei Zeitreihen zu quantifizieren. In diesem Manuskript wird der neue statistische Ansatz der Event Coincidence Analysis sowie deren R-Implementierung vorgestellt. Zusätzlich werden verschiedene Anwendungen der Methode im Bereich der Klimafolgenforschung auf unterschiedlichen Skalen vorgelegt: Die Auswirkungen außergewöhnlicher Ausprägungen verschiedener meteorologischer Parameter auf den Stammumfang heimischer Bäume auf der täglichen lokalen Skala, die Auswirkungen von extremen Temperatur- und Niederschlagsereignissen auf die Blühzeitpunkte heimischer Sträucher auf der wöchentlichen regionalen Skala, die Auswirkung von Temperaturextremen auf den Allgemeinzustand eines Ökosystems (NDVI) auf der wöchentlichen kontinentalen Skala und der Einfluss von El Nino und La Nina Events auf Niedeschlagsanomalien auf der saisonalen globalen Skala. Schließlich soll die Veröffentlichung einer R-Implementierung der Methodik andere Wissenschaftler zur Nutzung letzterer befähigen und diese bei der Beantwortung weiterer Forschungsfragen unterstützen. KW - vegetation KW - event coincidence analysis KW - climate extreme events KW - climate impacts KW - Vegetation KW - Event Koinzidenz Analyse KW - extreme Klimaereignisse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407095 ER -