TY - JOUR A1 - Hoffmann, Falk A1 - Machatschek, Rainhard Gabriel A1 - Lendlein, Andreas T1 - Analytical model and Monte Carlo simulations of polymer degradation with improved chain cut statistics JF - Journal of materials research : JMR N2 - The degradation of polymers is described by mathematical models based on bond cleavage statistics including the decreasing probability of chain cuts with decreasing average chain length. We derive equations for the degradation of chains under a random chain cut and a chain end cut mechanism, which are compared to existing models. The results are used to predict the influence of internal molecular parameters. It is shown that both chain cut mechanisms lead to a similar shape of the mass or molecular mass loss curve. A characteristic time is derived, which can be used to extract the maximum length of soluble fragments l of the polymer. We show that the complete description is needed to extract the degradation rate constant k from the molecular mass loss curve and that l can be used to design polymers that lose less mechanical stability before entering the mass loss phase. KW - Modeling KW - Degradable KW - Polymer KW - Molecular weight KW - Simulation Y1 - 2022 U6 - https://doi.org/10.1557/s43578-022-00495-4 SN - 0884-2914 SN - 2044-5326 VL - 37 IS - 5 SP - 1093 EP - 1101 PB - Springer CY - Heidelberg ER - TY - CHAP A1 - Haase, Jennifer A1 - Thim, Christof A1 - Bender, Benedict T1 - Expanding modeling notations BT - requirements for creative process modeling T2 - Business Process Management Workshops. BPM 2021 / Lecture Notes in Business Information Processing N2 - Creativity is a common aspect of business processes and thus needs a proper representation through process modeling notations. However, creative processes constitute highly flexible process elements, as new and unforeseeable outcome is developed. This presents a challenge for modeling languages. Current methods representing creative-intensive work are rather less able to capture creative specifics which are relevant to successfully run and manage these processes. We outline the concept of creative-intensive processes and present an example from a game design process in order to derive critical process aspects relevant for its modeling. Six aspects are detected, with first and foremost: process flexibility, as well as temporal uncertainty, experience, types of creative problems, phases of the creative process and individual criteria. By first analyzing what aspects of creative work modeling notations already cover, we further discuss which modeling extensions need to be developed to better represent creativity within business processes. We argue that a proper representation of creative work would not just improve the management of those processes, but can further enable process actors to more efficiently run these creative processes and adjust them to better fit to the creative needs. KW - Modeling KW - Requirements KW - Pockets of creativity KW - Creative process Y1 - 2022 SN - 978-3-030-94342-4 SN - 978-3-030-94343-1 U6 - https://doi.org/10.1007/978-3-030-94343-1_15 IS - 436 SP - 193 EP - 196 PB - Springer CY - Cham ER - TY - JOUR A1 - de Abreu e Lima, Francisco Anastacio A1 - Leifels, Lydia A1 - Nikoloski, Zoran T1 - Regression-based modeling of complex plant traits based on metabolomics data JF - Plant Metabolomics N2 - Bridging metabolomics with plant phenotypic responses is challenging. Multivariate analyses account for the existing dependencies among metabolites, and regression models in particular capture such dependencies in search for association with a given trait. However, special care should be undertaken with metabolomics data. Here we propose a modeling workflow that considers all caveats imposed by such large data sets. KW - Metabolomics KW - Plants KW - Trait KW - Regression KW - Prediction KW - Modeling KW - R programing language KW - R software packages Y1 - 2018 SN - 978-1-4939-7819-9 SN - 978-1-4939-7818-2 U6 - https://doi.org/10.1007/978-1-4939-7819-9_23 SN - 1064-3745 SN - 1940-6029 VL - 1778 SP - 321 EP - 327 PB - Humana Press Inc. CY - New York ER - TY - JOUR A1 - Li, Yuanqing A1 - Chen, Li A1 - Nofal, Issam A1 - Chen, Mo A1 - Wang, Haibin A1 - Liu, Rui A1 - Chen, Qingyu A1 - Krstić, Miloš A1 - Shi, Shuting A1 - Guo, Gang A1 - Baeg, Sang H. A1 - Wen, Shi-Jie A1 - Wong, Richard T1 - Modeling and analysis of single-event transient sensitivity of a 65 nm clock tree JF - Microelectronics reliability N2 - The soft error rate (SER) due to heavy-ion irradiation of a clock tree is investigated in this paper. A method for clock tree SER prediction is developed, which employs a dedicated soft error analysis tool to characterize the single-event transient (SET) sensitivities of clock inverters and other commercial tools to calculate the SER through fault-injection simulations. A test circuit including a flip-flop chain and clock tree in a 65 nm CMOS technology is developed through the automatic ASIC design flow. This circuit is analyzed with the developed method to calculate its clock tree SER. In addition, this circuit is implemented in a 65 nm test chip and irradiated by heavy ions to measure its SER resulting from the SETs in the clock tree. The experimental and calculation results of this case study present good correlation, which verifies the effectiveness of the developed method. KW - Clock tree KW - Modeling KW - Single-event transient (SET) Y1 - 2018 U6 - https://doi.org/10.1016/j.microrel.2018.05.016 SN - 0026-2714 VL - 87 SP - 24 EP - 32 PB - Elsevier CY - Oxford ER - TY - JOUR A1 - Klose, Tim A1 - Guillemoteau, Julien A1 - Simon, Francois-Xavier A1 - Tronicke, Jens T1 - Toward subsurface magnetic permeability imaging with electromagnetic induction sensors BT - Sensitivity computation and reconstruction of measured data JF - Geophysics N2 - In near-surface geophysics, small portable loop-loop electro-magnetic induction (EMI) sensors using harmonic sources with a constant and rather small frequency are increasingly used to investigate the electrical properties of the subsurface. For such sensors, the influence of electrical conductivity and magnetic permeability on the EMI response is well-understood. Typically, data analysis focuses on reconstructing an electrical conductivity model by inverting the out-of-phase response. However, in a variety of near-surface applications, magnetic permeability (or susceptibility) models derived from the in-phase (IP) response may provide important additional information. In view of developing a fast 3D inversion procedure of the IP response for a dense grid of measurement points, we first analyze the 3D sensitivity functions associated with a homogeneous permeable half-space. Then, we compare synthetic data computed using a linear forward-modeling method based on these sensitivity functions with synthetic data computed using full nonlinear forward-modeling methods. The results indicate the correctness and applicability of our linear forward-modeling approach. Furthermore, we determine the advantages of converting IP data into apparent permeability, which, for example, allows us to extend the applicability of the linear forward-modeling method to high-magnetic environments. Finally, we compute synthetic data with the linear theory for a model consisting of a controlled magnetic target and compare the results with field data collected with a four-configuration loop-loop EMI sensor. With this field-scale experiment, we determine that our linear forward-modeling approach can reproduce measured data with sufficiently small error, and, thus, it represents the basis for developing efficient inversion approaches. KW - Electromagnetics KW - Imaging KW - Magnetic+Susceptibility KW - Near+Surface KW - Modeling Y1 - 2018 U6 - https://doi.org/10.1190/GEO2017-0827.1 SN - 0016-8033 SN - 1942-2156 VL - 83 IS - 5 SP - E335 EP - E345 PB - Society of Exploration Geophysicists CY - Tulsa ER - TY - THES A1 - Grum, Marcus T1 - Construction of a concept of neuronal modeling N2 - The business problem of having inefficient processes, imprecise process analyses, and simulations as well as non-transparent artificial neuronal network models can be overcome by an easy-to-use modeling concept. With the aim of developing a flexible and efficient approach to modeling, simulating, and optimizing processes, this paper proposes a flexible Concept of Neuronal Modeling (CoNM). The modeling concept, which is described by the modeling language designed and its mathematical formulation and is connected to a technical substantiation, is based on a collection of novel sub-artifacts. As these have been implemented as a computational model, the set of CoNM tools carries out novel kinds of Neuronal Process Modeling (NPM), Neuronal Process Simulations (NPS), and Neuronal Process Optimizations (NPO). The efficacy of the designed artifacts was demonstrated rigorously by means of six experiments and a simulator of real industrial production processes. N2 - Die vorliegende Arbeit addressiert das Geschäftsproblem von ineffizienten Prozessen, unpräzisen Prozessanalysen und -simulationen sowie untransparenten künstlichen neuronalen Netzwerken, indem ein Modellierungskonzept zum Neuronalen Modellieren konstruiert wird. Dieses neuartige Konzept des Neuronalen Modellierens (CoNM) fungiert als flexibler und effizienter Ansatz zum Modellieren, Simulieren und Optimieren von Prozessen mit Hilfe von neuronalen Netzwerken und wird mittels einer Modellierungssprache, dessen mathematischen Formalisierung und technischen Substanziierung sowie einer Sammlung von neuartigen Subartefakten beschrieben. In der Verwendung derer Implementierung als CoNM-Werkzeuge können somit neue Arten einer Neuronalen-Prozess-Modellierung (NPM), Neuronalen-Prozess-Simulation (NPS) sowie Neuronalen-Prozess-Optimierung (NPO) realisiert werden. Die Wirksamkeit der erstellten Artefakte wurde anhand von sechs Experimenten demonstriert sowie in einem Simulator in realen Produktionsprozessen gezeigt. T2 - Konzept des Neuronalen Modellierens KW - Deep Learning KW - Artificial Neuronal Network KW - Explainability KW - Interpretability KW - Business Process KW - Simulation KW - Optimization KW - Knowledge Management KW - Process Management KW - Modeling KW - Process KW - Knowledge KW - Learning KW - Enterprise Architecture KW - Industry 4.0 KW - Künstliche Neuronale Netzwerke KW - Erklärbarkeit KW - Interpretierbarkeit KW - Geschäftsprozess KW - Simulation KW - Optimierung KW - Wissensmanagement KW - Prozessmanagement KW - Modellierung KW - Prozess KW - Wissen KW - Lernen KW - Enterprise Architecture KW - Industrie 4.0 Y1 - 2021 ER - TY - JOUR A1 - Romero-Mujalli, Daniel A1 - Jeltsch, Florian A1 - Tiedemann, Ralph T1 - Individual-based modeling of eco-evolutionary dynamics BT - state of the art and future directions JF - Regional environmental change N2 - A challenge for eco-evolutionary research is to better understand the effect of climate and landscape changes on species and their distribution. Populations of species can respond to changes in their environment through local genetic adaptation or plasticity, dispersal, or local extinction. The individual-based modeling (IBM) approach has been repeatedly applied to assess organismic responses to environmental changes. IBMs simulate emerging adaptive behaviors from the basic entities upon which both ecological and evolutionary mechanisms act. The objective of this review is to summarize the state of the art of eco-evolutionary IBMs and to explore to what degree they already address the key responses of organisms to environmental change. In this, we identify promising approaches and potential knowledge gaps in the implementation of eco-evolutionary mechanisms to motivate future research. Using mainly the ISI Web of Science, we reveal that most of the progress in eco-evolutionary IBMs in the last decades was achieved for genetic adaptation to novel local environmental conditions. There is, however, not a single eco-evolutionary IBM addressing the three potential adaptive responses simultaneously. Additionally, IBMs implementing adaptive phenotypic plasticity are rare. Most commonly, plasticity was implemented as random noise or reaction norms. Our review further identifies a current lack of models where plasticity is an evolving trait. Future eco-evolutionary models should consider dispersal and plasticity as evolving traits with their associated costs and benefits. Such an integrated approach could help to identify conditions promoting population persistence depending on the life history strategy of organisms and the environment they experience. KW - Modeling KW - Individual-based models KW - Ecology KW - Evolution KW - Eco-evolutionary dynamics Y1 - 2018 U6 - https://doi.org/10.1007/s10113-018-1406-7 SN - 1436-3798 SN - 1436-378X VL - 19 IS - 1 SP - 1 EP - 12 PB - Springer CY - Heidelberg ER - TY - THES A1 - Zhelavskaya, Irina S. T1 - Modeling of the Plasmasphere Dynamics T1 - Modellierung der Plasmasphärendynamik N2 - The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions. First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set. We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data. The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions. Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers. Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches. N2 - Die Plasmasphäre ist eine die Erde umgebende dynamische Region aus kaltem, dichtem Plasma. Ihre Form und Größe sind sehr anfällig für Schwankungen der solaren und geomagnetischen Bedingungen. Ein präzises Modell der Plasmadichte in der Plasmasphäre ist wichtig für die GNSS-Navigation und für die Vorhersage gefährlicher Auswirkungen der kosmischen Strahlung auf Raumfahrzeuge. Die Verteilung des kalten Plasmas und seine dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen sind jedoch nach wie vor nur unzureichend quantifiziert. Bestehende empirische Modelle der Plasmadichte sind in der Regel zu stark vereinfacht, da sie auf statistischen Durchschnittswerten statischer Parameter basieren. Das Verständnis der globalen Dynamik der Plasmasphäre anhand von Beobachtungen aus dem Weltraum bleibt eine Herausforderung, da vorhandene Dichtemessungen spärlich sind und sich auf Orte beschränken, an denen Satelliten In-situ-Beobachtungen liefern können. In dieser Dissertation zeigen wir, wie solche spärlichen Elektronendichtemessungen verwendet werden können, um die globale Elektronendichteverteilung in der Plasmasphäre zu rekonstruieren und ihre dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen zu erfassen. Zunächst entwickeln wir einen automatisierten Algorithmus zur Bestimmung der Elektronendichte aus In-situ-Messungen des elektrischen Feldes der Van Allen Probes Raumsonden. Insbesondere entwerfen wir ein neuronales Netzwerk, um die obere Hybridresonanzfrequenz aus den dynamischen Spektrogrammen abzuleiten, die wir durch die Instrumentensuite „Electric and Magnetic Field Instrument Suite“ (EMFISIS) erhielten, welche dann zur Berechnung der Elektronenzahldichte verwendet wird. Der entwickelte „Neural-network-based Upper Hybrid Resonance Determination“ (NURD)-Algorithmus wird auf mehr als vier Jahre der EMFISIS-Messungen angewendet, um den öffentlich verfügbaren Elektronendichte-Datensatz zu erstellen. Wir verwenden den erhaltenen Elektronendichte-Datensatz, um ein neues globales Modell der Plasmadichte zu entwickeln, indem wir einen auf einem neuronalen Netzwerk basierenden Modellierungsansatz verwenden. Zusätzlich zum Ort nimmt das Modell den zeitlichen Verlauf der geomagnetischen Indizes und des Ortes als Eingabe und erzeugt als Ausgabe die Elektronendichte in der äquatorialebene. Dies wird ausführlich anhand von In-situ-Dichtemessungen der Van Allen Probes-Mission und durch den Vergleich der vom Modell vorhergesagten globalen Entwicklung der Plasmasphäre mit den globalen IMAGE EUV-Bildern der He+ -Verteilung validiert. Das Modell reproduziert erfolgreich die Erosion der Plasmasphäre auf der Nachtseite sowie die Bildung und Entwicklung von Fahnen und stimmt gut mit den Daten überein. Die Leistung neuronaler Netze hängt stark von der Verfügbarkeit von Trainingsdaten ab, die für Intervalle hoher geomagnetischer Aktivität nur spärlich vorhanden sind. Um zuverlässige Dichtevorhersagen während solcher Intervalle zu liefern, können wir eine physikalische Modellierung verwenden. Wir entwickeln einen neuen Ansatz zur optimalen Kombination der neuronalen Netzwerk- und physikbasierenden Modelle der Plasmasphäre mittels Datenassimilation. Der entwickelte Ansatz nutzt sowohl die Vorteile neuronaler Netze als auch die physikalischen Modellierung und liefert zuverlässige Rekonstruktionen der globalen Plasmadichte für ruhige, gestörte und extreme geomagnetische Bedingungen. Schließlich erweitern wir die entwickelten auf maschinellem Lernen basierten Werkzeuge und wenden sie auf ein weiteres wichtiges Problem im Bereich des Weltraumwetters an, die Vorhersage des geomagnetischen Index Kp. Der Kp-Index ist einer der am häufigsten verwendeten Indikatoren für Weltraumwetterwarnungen und dient als Eingabe für verschiedene Modelle, z.B. für die Thermosphäre, die Strahlungsgürtel und die Plasmasphäre. Es ist daher wichtig, den Kp-Index genau vorherzusagen. Frühere Arbeiten in diesem Bereich verwendeten hauptsächlich künstliche neuronale Netze, um Kurzzeit-Kp-Vorhersagen zu treffen, wobei deren Schlussfolgerungen auf der jüngsten Vergangenheit von Kp- und Sonnenwindmessungen am L1-Punkt beruhten. Wir analysieren, wie sich die Leistung neuronaler Netze im Vergleich zu anderen Algorithmen für maschinelles Lernen verhält, um kurz- und längerfristige Kp-Voraussagen von bis zu 12 Stunden treffen zu können. Zusätzlich untersuchen wir verschiedene Methoden des maschinellen Lernens und der Informationstheorie zur Auswahl der optimalen Eingaben für ein Vorhersagemodell von Kp. Die entwickelten Werkzeuge zur Merkmalsauswahl können auch auf andere Probleme in der Weltraumphysik angewendet werden, um die Eingabedimensionalität zu reduzieren und die wichtigsten Treiber zu identifizieren. Die in dieser Dissertation skizzierten Untersuchungen zeigen deutlich, dass Werkzeuge für maschinelles Lernen sowohl zur Entwicklung empirischer Modelle aus spärlichen Daten als auch zum Verstehen zugrunde liegender physikalischer Prozesse genutzt werden können. Die Kombination von maschinellem Lernen, physikbasierter Modellierung und Datenassimilation ermöglicht es uns, kombinierte Methoden zu entwickeln, die von unterschiedlichen Ansätzen profitieren. KW - Plasmasphere KW - Inner magnetosphere KW - Neural networks KW - Machine learning KW - Modeling KW - Kp index KW - Geomagnetic activity KW - Data assimilation KW - Validation KW - IMAGE EUV KW - Kalman filter KW - Plasmasphäre KW - Innere Magnetosphäre KW - Neuronale Netze KW - Maschinelles Lernen KW - Modellieren KW - Forecasting KW - Kp-Index KW - Geomagnetische Aktivität KW - Datenassimilation KW - Validierung KW - Kalman Filter KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-482433 ER - TY - JOUR A1 - Schneider, Anne-Kathrin A1 - Schröder-Esselbach, Boris T1 - Perspectives in modelling earthworm dynamics and their feedbacks with abiotic soil properties JF - Applied soil ecology : a section of agriculture, ecosystems & environment N2 - Effects of earthworms on soil abiotic properties are well documented from several decades of laboratory and mesocosm experiments, and they are supposed to affect large-scale soil ecosystem functioning. The prediction of the spatiotemporal occurrence of earthworms and the related functional effects in the field or at larger scales, however, is constrained by adequate modelling approaches. Correlative, phenomenological methods, such as species distribution models, facilitate the identification of factors that drive species' distributions. However, these methods ignore the ability of earthworms to select and modify their own habitat and therefore may lead to unreliable predictions. Understanding these feedbacks between earthworms and abiotic soil properties is a key requisite to better understand their spatiotemporal distribution as well as to quantify the various functional effects of earthworms in soil ecosystems. Process-based models that investigate either effects or responses of earthworms on soil environmental conditions are mostly applied in ecotoxicological and bioturbation studies. Process-based models that describe feedbacks between earthworms and soil abiotic properties explicitly are rare. In this review, we analysed 18 process-based earthworm dynamic modelling studies pointing out the current gaps and future challenges in feedback modelling. We identify three main challenges: (i) adequate and reliable process identification in model development at and across relevant spatiotemporal scales (individual behaviour and population dynamics of earthworms), (ii) use of information from different data sources in one model (laboratory or field experiments, earthworm species or functional type) and (iii) quantification of uncertainties in data (e.g. spatiotemporal variability of earthworm abundances and soil hydraulic properties) and derived parameters (e.g. population growth rate and hydraulic conductivity) that are used in the model. KW - Oligochaeta KW - Feedback biotic-abiotic KW - Functional effect KW - Population dynamics KW - Modeling KW - Ecosystem engineer Y1 - 2012 U6 - https://doi.org/10.1016/j.apsoil.2012.02.020 SN - 0929-1393 VL - 58 IS - 1 SP - 29 EP - 36 PB - Elsevier CY - Amsterdam ER - TY - JOUR A1 - Trauth, Martin H. T1 - TURBO2 - a MATLAB simulation to study the effects of bioturbation on paleoceanographic time series JF - Computers & geosciences : an international journal devoted to the publication of papers on all aspects of geocomputation and to the distribution of computer programs and test data sets ; an official journal of the International Association for Mathematical Geology N2 - Bioturbation (or benthic mixing) causes significant distortions in marine stable isotope signals and other palaeoceanographic records. Although the influence of bioturbation on these records is well known it has rarely been dealt systematically. The MATLAB program called TURBO2 can be used to simulate the effect of bioturbation on individual sediment particles. It can therefore be used to model the distortion of all physical, chemical, and biological signals in deep-sea sediments, such as Mg/Ca ratios and UK37-based sea-surface temperature (SST) variations. In particular, it can be used to study the distortions in paleoceanographic records that are based on individual sediment particles, such as SST records based on foraminifera assemblages. Furthermore. TURBO2 provides a tool to study the effect of benthic mixing of isotope signals such as C-14, delta O-18, and delta C-13, measured in a stratigraphic carrier such as foraminifera shells. KW - Bioturbation KW - Modeling KW - MATLAB KW - Deep-sea records KW - Foraminifera KW - Stable oxygen isotopes Y1 - 2013 U6 - https://doi.org/10.1016/j.cageo.2013.05.003 SN - 0098-3004 SN - 1873-7803 VL - 61 IS - 12 SP - 1 EP - 10 PB - Elsevier CY - Oxford ER - TY - BOOK A1 - Giese, Holger A1 - Becker, Basil T1 - Modeling and verifying dynamic evolving service-oriented architectures N2 - The service-oriented architecture supports the dynamic assembly and runtime reconfiguration of complex open IT landscapes by means of runtime binding of service contracts, launching of new components and termination of outdated ones. Furthermore, the evolution of these IT landscapes is not restricted to exchanging components with other ones using the same service contracts, as new services contracts can be added as well. However, current approaches for modeling and verification of service-oriented architectures do not support these important capabilities to their full extend.In this report we present an extension of the current OMG proposal for service modeling with UML - SoaML - which overcomes these limitations. It permits modeling services and their service contracts at different levels of abstraction, provides a formal semantics for all modeling concepts, and enables verifying critical properties. Our compositional and incremental verification approach allows for complex properties including communication parameters and time and covers besides the dynamic binding of service contracts and the replacement of components also the evolution of the systems by means of new service contracts. The modeling as well as verification capabilities of the presented approach are demonstrated by means of a supply chain example and the verification results of a first prototype are shown. N2 - Service-Orientierte Architekturen erlauben die dynamische Zusammensetzung und Rekonfiguration komplexer, offener IT Landschaften durch Bindung von Service Contracts zur Laufzeit, starten neuer Komponenten und beenden von veralteten. Die Evolution dieser Systeme ist nicht auf den Austausch von Komponenten-Implementierungen bei Beibehaltung der Service-Contracts beschränkt, sondern das Hinzufügen neuer Service-Contracts wird ebenfalls unterstützt. Aktuelle Ansätze zur Modellierung und Verifikation Service-Orientierter Architekturen unterstützen diese wichtigen Eigenschaften, wenn überhaupt, nur unvollständig. In diesem Bericht stellen wir eine Erweiterung des aktuellen OMG Vorschlags zur Service Modellierung mit UML - SoaML - vor, die diese Einschränkungen aufhebt. Unser Ansatz erlaubt die Modellierung von Service Contracts auf verschiedenen Abstraktionsniveaus, besitzt eine fundierte formale Semantik für alle eingeführten Modellierungskonzepte und erlaubt die Verifikation kritischer Eigenschaften. Unser kompositionaler und inkrementeller Verifikationsansatz erlaubt die Verifikation komplexer Eigenschaften einschließlich Kommunikationsparameter und Zeit und deckt neben der dynamischen Bindung von Service Contracts sowie dem Austausch von Komponenten auch die Evolution des gesamten Systems durch das Hinzufügen neuer Service Contracts ab. Die Modellierungs- als auch die Verifikationsfähigkeiten unseres vorgestellten Ansatzes werden durch ein Anwendungsbeispiel aus dem Bereich des Lieferkettenmanagements veranschaulicht. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 75 KW - Service-Orientierte Architekturen KW - Verifikation KW - Contracts KW - Evolution KW - Unbegrenzter Zustandsraum KW - Invarianten KW - Modellierung KW - SoaML KW - Service-Oriented Architecture KW - Verification KW - Contracts KW - Evolution KW - Infinite State KW - Invariants KW - Modeling KW - SoaML KW - Runtime Binding Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65112 SN - 978-3-86956-246-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Vogel, Thomas A1 - Giese, Holger T1 - Model-driven engineering of adaptation engines for self-adaptive software : executable runtime megamodels N2 - The development of self-adaptive software requires the engineering of an adaptation engine that controls and adapts the underlying adaptable software by means of feedback loops. The adaptation engine often describes the adaptation by using runtime models representing relevant aspects of the adaptable software and particular activities such as analysis and planning that operate on these runtime models. To systematically address the interplay between runtime models and adaptation activities in adaptation engines, runtime megamodels have been proposed for self-adaptive software. A runtime megamodel is a specific runtime model whose elements are runtime models and adaptation activities. Thus, a megamodel captures the interplay between multiple models and between models and activities as well as the activation of the activities. In this article, we go one step further and present a modeling language for ExecUtable RuntimE MegAmodels (EUREMA) that considerably eases the development of adaptation engines by following a model-driven engineering approach. We provide a domain-specific modeling language and a runtime interpreter for adaptation engines, in particular for feedback loops. Megamodels are kept explicit and alive at runtime and by interpreting them, they are directly executed to run feedback loops. Additionally, they can be dynamically adjusted to adapt feedback loops. Thus, EUREMA supports development by making feedback loops, their runtime models, and adaptation activities explicit at a higher level of abstraction. Moreover, it enables complex solutions where multiple feedback loops interact or even operate on top of each other. Finally, it leverages the co-existence of self-adaptation and off-line adaptation for evolution. N2 - Die Entwicklung selbst-adaptiver Software erfordert die Konstruktion einer sogenannten "Adaptation Engine", die mittels Feedbackschleifen die unterliegende Software steuert und anpasst. Die Anpassung selbst wird häufig mittels Laufzeitmodellen, die die laufende Software repräsentieren, und Aktivitäten wie beispielsweise Analyse und Planung, die diese Laufzeitmodelle nutzen, beschrieben. Um das Zusammenspiel zwischen Laufzeitmodellen und Aktivitäten systematisch zu erfassen, wurden Megamodelle zur Laufzeit für selbst-adaptive Software vorgeschlagen. Ein Megamodell zur Laufzeit ist ein spezielles Laufzeitmodell, dessen Elemente Aktivitäten und andere Laufzeitmodelle sind. Folglich erfasst ein Megamodell das Zusammenspiel zwischen verschiedenen Laufzeitmodellen und zwischen Aktivitäten und Laufzeitmodellen als auch die Aktivierung und Ausführung der Aktivitäten. Darauf aufbauend präsentieren wir in diesem Artikel eine Modellierungssprache für ausführbare Megamodelle zur Laufzeit, EUREMA genannt, die aufgrund eines modellgetriebenen Ansatzes die Entwicklung selbst-adaptiver Software erleichtert. Der Ansatz umfasst eine domänen-spezifische Modellierungssprache und einen Laufzeit-Interpreter für Adaptation Engines, insbesondere für Feedbackschleifen. EUREMA Megamodelle werden über die Spezifikationsphase hinaus explizit zur Laufzeit genutzt, um mittels Interpreter Feedbackschleifen direkt auszuführen. Zusätzlich können Megamodelle zur Laufzeit dynamisch geändert werden, um Feedbackschleifen anzupassen. Daher unterstützt EUREMA die Entwicklung selbst-adaptiver Software durch die explizite Spezifikation von Feedbackschleifen, der verwendeten Laufzeitmodelle, und Adaptionsaktivitäten auf einer höheren Abstraktionsebene. Darüber hinaus ermöglicht EUREMA komplexe Lösungskonzepte, die mehrere Feedbackschleifen und deren Interaktion wie auch die hierarchische Komposition von Feedbackschleifen umfassen. Dies unterstützt schließlich das integrierte Zusammenspiel von Selbst-Adaption und Wartung für die Evolution der Software. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 66 KW - Modellgetriebene Softwareentwicklung KW - Modellierungssprachen KW - Modellierung KW - Laufzeitmodelle KW - Megamodell KW - Ausführung von Modellen KW - Model-Driven Engineering KW - Modeling Languages KW - Modeling KW - Models at Runtime KW - Megamodels KW - Model Execution KW - Self-Adaptive Software Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63825 SN - 978-3-86956-227-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Polyvyanyy, Artem T1 - Structuring process models T1 - Strukturierung von Prozessmodellen N2 - One can fairly adopt the ideas of Donald E. Knuth to conclude that process modeling is both a science and an art. Process modeling does have an aesthetic sense. Similar to composing an opera or writing a novel, process modeling is carried out by humans who undergo creative practices when engineering a process model. Therefore, the very same process can be modeled in a myriad number of ways. Once modeled, processes can be analyzed by employing scientific methods. Usually, process models are formalized as directed graphs, with nodes representing tasks and decisions, and directed arcs describing temporal constraints between the nodes. Common process definition languages, such as Business Process Model and Notation (BPMN) and Event-driven Process Chain (EPC) allow process analysts to define models with arbitrary complex topologies. The absence of structural constraints supports creativity and productivity, as there is no need to force ideas into a limited amount of available structural patterns. Nevertheless, it is often preferable that models follow certain structural rules. A well-known structural property of process models is (well-)structuredness. A process model is (well-)structured if and only if every node with multiple outgoing arcs (a split) has a corresponding node with multiple incoming arcs (a join), and vice versa, such that the set of nodes between the split and the join induces a single-entry-single-exit (SESE) region; otherwise the process model is unstructured. The motivations for well-structured process models are manifold: (i) Well-structured process models are easier to layout for visual representation as their formalizations are planar graphs. (ii) Well-structured process models are easier to comprehend by humans. (iii) Well-structured process models tend to have fewer errors than unstructured ones and it is less probable to introduce new errors when modifying a well-structured process model. (iv) Well-structured process models are better suited for analysis with many existing formal techniques applicable only for well-structured process models. (v) Well-structured process models are better suited for efficient execution and optimization, e.g., when discovering independent regions of a process model that can be executed concurrently. Consequently, there are process modeling languages that encourage well-structured modeling, e.g., Business Process Execution Language (BPEL) and ADEPT. However, the well-structured process modeling implies some limitations: (i) There exist processes that cannot be formalized as well-structured process models. (ii) There exist processes that when formalized as well-structured process models require a considerable duplication of modeling constructs. Rather than expecting well-structured modeling from start, we advocate for the absence of structural constraints when modeling. Afterwards, automated methods can suggest, upon request and whenever possible, alternative formalizations that are "better" structured, preferably well-structured. In this thesis, we study the problem of automatically transforming process models into equivalent well-structured models. The developed transformations are performed under a strong notion of behavioral equivalence which preserves concurrency. The findings are implemented in a tool, which is publicly available. N2 - Im Sinne der Ideen von Donald E. Knuth ist die Prozessmodellierung sowohl Wissenschaft als auch Kunst. Prozessmodellierung hat immer auch eine ästhetische Dimension. Wie das Komponieren einer Oper oder das Schreiben eines Romans, so stellt auch die Prozessmodellierung einen kreativen Akt eines Individuums dar. Somit kann ein Prozess auf unterschiedlichste Weise modelliert werden. Prozessmodelle können anschließend mit wissenschaftlichen Methoden untersucht werden. Prozessmodelle liegen im Regelfall als gerichtete Graphen vor. Knoten stellen Aktivitäten und Entscheidungspunkte dar, während gerichtete Kanten die temporalen Abhängigkeiten zwischen den Knoten beschreiben. Gängige Prozessmodellierungssprachen, zum Beispiel die Business Process Model and Notation (BPMN) und Ereignisgesteuerte Prozessketten (EPK), ermöglichen die Erstellung von Modellen mit einer beliebig komplexen Topologie. Es gibt keine strukturellen Einschränkungen, welche die Kreativität oder Produktivität durch eine begrenzte Anzahl von Modellierungsalternativen einschränken würden. Nichtsdestotrotz ist es oft wünschenswert, dass Modelle bestimmte strukturelle Eigenschaften haben. Ein bekanntes strukturelles Merkmal für Prozessmodelle ist Wohlstrukturiertheit. Ein Prozessmodell ist wohlstrukturiert genau dann, wenn jeder Knoten mit mehreren ausgehenden Kanten (ein Split) einen entsprechenden Knoten mit mehreren eingehenden Kanten (einen Join) hat, und umgekehrt, so dass die Knoten welche zwischen dem Split und dem Join liegen eine single-entry-single-exit (SESE) Region bilden. Ist dies nicht der Fall, so ist das Modell unstrukturiert. Wohlstrukturiertheit ist aufgrund einer Vielzahl von Gründen wünschenswert: (i) Wohlstrukturierte Modelle sind einfacher auszurichten, wenn sie visualisiert werden, da sie planaren Graphen entsprechen. (ii) Wohlstrukturierte Modelle zeichnen sich durch eine höhere Verständlichkeit aus. (iii) Wohlstrukturierte Modelle haben oft weniger Fehler als unstrukturierte Modelle. Auch ist die Wahrscheinlichkeit fehlerhafter Änderungen größer, wenn Modelle unstrukturiert sind. (iv) Wohlstrukturierte Modelle eignen sich besser für die formale Analyse, da viele Techniken nur für wohlstrukturierte Modelle anwendbar sind. (v) Wohlstrukturierte Modelle sind eher für die effiziente Ausführung und Optimierung geeignet, z.B. wenn unabhängige Regionen eines Prozesses für die parallele Ausführung identifiziert werden. Folglich gibt es eine Reihe von Prozessmodellierungssprachen, z.B. die Business Process Execution Language (BPEL) und ADEPT, welche den Modellierer anhalten nur wohlstrukturierte Modelle zu erstellen. Solch wohlstrukturiertes Modellieren impliziert jedoch gewisse Einschränkungen: (i) Es gibt Prozesse, welche nicht mittels wohlstrukturierten Prozessmodellen dargestellt werden können. (ii) Es gibt Prozesse, für welche die wohlstrukturierte Modellierung mit einer erheblichen Vervielfältigung von Modellierungs-konstrukten einhergeht. Aus diesem Grund vertritt diese Arbeit den Standpunkt, dass ohne strukturelle Einschränkungen modelliert werden sollte, anstatt Wohlstrukturiertheit von Beginn an zu verlangen. Anschließend können, sofern gewünscht und wo immer es möglich ist, automatische Methoden Modellierungsalternativen vorschlagen, welche "besser" strukturiert sind, im Idealfall sogar wohlstrukturiert. Die vorliegende Arbeit widmet sich dem Problem der automatischen Transformation von Prozessmodellen in verhaltensäquivalente wohlstrukturierte Prozessmodelle. Die vorgestellten Transformationen erhalten ein strenges Verhaltensequivalenzkriterium, welches die Parallelität wahrt. Die Resultate sind in einem frei verfügbaren Forschungsprototyp implementiert worden. KW - Strukturierung KW - Wohlstrukturiertheit KW - Prozesse KW - Verhalten KW - Modellierung KW - Structuring KW - Well-structuredness KW - Process KW - Behavior KW - Modeling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59024 ER - TY - THES A1 - Schütte, Moritz T1 - Evolutionary fingerprints in genome-scale networks T1 - Evolutionäre Spuren in genomskaligen Netzwerken N2 - Mathematical modeling of biological phenomena has experienced increasing interest since new high-throughput technologies give access to growing amounts of molecular data. These modeling approaches are especially able to test hypotheses which are not yet experimentally accessible or guide an experimental setup. One particular attempt investigates the evolutionary dynamics responsible for today's composition of organisms. Computer simulations either propose an evolutionary mechanism and thus reproduce a recent finding or rebuild an evolutionary process in order to learn about its mechanism. The quest for evolutionary fingerprints in metabolic and gene-coexpression networks is the central topic of this cumulative thesis based on four published articles. An understanding of the actual origin of life will probably remain an insoluble problem. However, one can argue that after a first simple metabolism has evolved, the further evolution of metabolism occurred in parallel with the evolution of the sequences of the catalyzing enzymes. Indications of such a coevolution can be found when correlating the change in sequence between two enzymes with their distance on the metabolic network which is obtained from the KEGG database. We observe that there exists a small but significant correlation primarily on nearest neighbors. This indicates that enzymes catalyzing subsequent reactions tend to be descended from the same precursor. Since this correlation is relatively small one can at least assume that, if new enzymes are no "genetic children" of the previous enzymes, they certainly be descended from any of the already existing ones. Following this hypothesis, we introduce a model of enzyme-pathway coevolution. By iteratively adding enzymes, this model explores the metabolic network in a manner similar to diffusion. With implementation of an Gillespie-like algorithm we are able to introduce a tunable parameter that controls the weight of sequence similarity when choosing a new enzyme. Furthermore, this method also defines a time difference between successive evolutionary innovations in terms of a new enzyme. Overall, these simulations generate putative time-courses of the evolutionary walk on the metabolic network. By a time-series analysis, we find that the acquisition of new enzymes appears in bursts which are pronounced when the influence of the sequence similarity is higher. This behavior strongly resembles punctuated equilibrium which denotes the observation that new species tend to appear in bursts as well rather than in a gradual manner. Thus, our model helps to establish a better understanding of punctuated equilibrium giving a potential description at molecular level. From the time-courses we also extract a tentative order of new enzymes, metabolites, and even organisms. The consistence of this order with previous findings provides evidence for the validity of our approach. While the sequence of a gene is actually subject to mutations, its expression profile might also indirectly change through the evolutionary events in the cellular interplay. Gene coexpression data is simply accessible by microarray experiments and commonly illustrated using coexpression networks where genes are nodes and get linked once they show a significant coexpression. Since the large number of genes makes an illustration of the entire coexpression network difficult, clustering helps to show the network on a metalevel. Various clustering techniques already exist. However, we introduce a novel one which maintains control of the cluster sizes and thus assures proper visual inspection. An application of the method on Arabidopsis thaliana reveals that genes causing a severe phenotype often show a functional uniqueness in their network vicinity. This leads to 20 genes of so far unknown phenotype which are however suggested to be essential for plant growth. Of these, six indeed provoke such a severe phenotype, shown by mutant analysis. By an inspection of the degree distribution of the A.thaliana coexpression network, we identified two characteristics. The distribution deviates from the frequently observed power-law by a sharp truncation which follows after an over-representation of highly connected nodes. For a better understanding, we developed an evolutionary model which mimics the growth of a coexpression network by gene duplication which underlies a strong selection criterion, and slight mutational changes in the expression profile. Despite the simplicity of our assumption, we can reproduce the observed properties in A.thaliana as well as in E.coli and S.cerevisiae. The over-representation of high-degree nodes could be identified with mutually well connected genes of similar functional families: zinc fingers (PF00096), flagella, and ribosomes respectively. In conclusion, these four manuscripts demonstrate the usefulness of mathematical models and statistical tools as a source of new biological insight. While the clustering approach of gene coexpression data leads to the phenotypic characterization of so far unknown genes and thus supports genome annotation, our model approaches offer explanations for observed properties of the coexpression network and furthermore substantiate punctuated equilibrium as an evolutionary process by a deeper understanding of an underlying molecular mechanism. N2 - Die biologische Zelle ist ein sehr kompliziertes Gebilde. Bei ihrer Betrachtung gilt es, das Zusammenspiel von Tausenden bis Millionen von Genen, Regulatoren, Proteinen oder Molekülen zu beschreiben und zu verstehen. Durch enorme Verbesserungen experimenteller Messgeräte gelingt es mittlerweile allerdings in geringer Zeit enorme Datenmengen zu messen, seien dies z.B. die Entschlüsselung eines Genoms oder die Konzentrationen der Moleküle in einer Zelle. Die Systembiologie nimmt sich dem Problem an, aus diesem Datenmeer ein quantitatives Verständnis für die Gesamtheit der Wechselwirkungen in der Zelle zu entwickeln. Dabei stellt die mathematische Modellierung und computergestützte Analyse ein eminent wichtiges Werkzeug dar, lassen sich doch am Computer in kurzer Zeit eine Vielzahl von Fällen testen und daraus Hypothesen generieren, die experimentell verifiziert werden können. Diese Doktorarbeit beschäftigt sich damit, wie durch mathematische Modellierung Rückschlüsse auf die Evolution und deren Mechanismen geschlossen werden können. Dabei besteht die Arbeit aus zwei Teilen. Zum Einen wurde ein Modell entwickelt, dass die Evolution des Stoffwechsels nachbaut. Der zweite Teil beschäftigt sich mit der Analyse von Genexpressionsdaten, d.h. der Stärke mit der ein bestimmtes Gen in ein Protein umgewandelt, "exprimiert", wird. Der Stoffwechsel bezeichnet die Gesamtheit der chemischen Vorgänge in einem Organismus; zum Einen werden Nahrungsstoffe für den Organismus verwertbar zerlegt, zum Anderen aber auch neue Stoffe aufgebaut. Da für nahezu jede chemische Reaktion ein katalysierendes Enzym benötigt wird, ist davon auszugehen, dass sich der Stoffwechsel parallel zu den Enzymen entwickelt hat. Auf dieser Annahme basiert das entwickelte Modell zur Enzyme-Stoffwechsel-Koevolution. Von einer Anfangsmenge von Enzymen und Molekülen ausgehend, die etwa in einer primitiven Atmosphäre vorgekommen sind, werden sukzessive Enzyme und die nun katalysierbaren Reaktionen hinzugefügt, wodurch die Stoffwechselkapazität anwächst. Die Auswahl eines neuen Enzyms geschieht dabei in Abhängigkeit von der Ähnlichkeit mit bereits vorhandenen und ist so an den evolutionären Vorgang der Mutation angelehnt: je ähnlicher ein neues Enzym zu den vorhandenen ist, desto schneller kann es hinzugefügt werden. Dieser Vorgang wird wiederholt, bis der Stoffwechsel die heutige Form angenommen hat. Interessant ist vor allem der zeitliche Verlauf dieser Evolution, der mittels einer Zeitreihenanalyse untersucht wird. Dabei zeigt sich, dass neue Enzyme gebündelt in Gruppen kurzer Zeitfolge auftreten, gefolgt von Intervallen relativer Stille. Dasselbe Phänomen kennt man von der Evolution neuer Arten, die ebenfalls gebündelt auftreten, und wird Punktualismus genannt. Diese Arbeit liefert somit ein besseres Verständnis dieses Phänomens durch eine Beschreibung auf molekularer Ebene. Im zweiten Projekt werden Genexpressionsdaten von Pflanzen analysiert. Einerseits geschieht dies mit einem eigens entwickelten Cluster-Algorithmus. Hier läßt sich beobachten, dass Gene mit einer ähnlichen Funktion oft auch ein ähnliches Expressionsmuster aufweisen. Das Clustering liefert einige Genkandidaten, deren Funktion bisher unbekannt war, von denen aber nun vermutet werden konnte, dass sie enorm wichtig für das Wachstum der Pflanze sind. Durch Experimente von Pflanzen mit und ohne diese Gene zeigte sich, dass sechs neuen Genen dieses essentielle Erscheinungsbild zugeordnet werden kann. Weiterhin wurden Netzwerke der Genexpressionsdaten einer Pflanze, eines Pilzes und eines Bakteriums untersucht. In diesen Netzwerken werden zwei Gene verbunden, falls sie ein sehr ähnliches Expressionsprofil aufweisen. Nun zeigten diese Netzwerke sehr ähnliche und charakteristische Eigenschaften auf. Im Rahmen dieser Arbeit wurde daher ein weiteres evolutionäres Modell entwickelt, das die Expressionsprofile anhand von Duplikation, Mutation und Selektion beschreibt. Obwohl das Modell auf sehr simplen Eigenschaften beruht, spiegelt es die beobachteten Eigenschaften sehr gut wider, und es läßt sich der Schluss ziehen, dass diese als Resultat der Evolution betrachtet werden können. Die Ergebnisse dieser Arbeiten sind als Doktorarbeit in kumulativer Form bestehend aus vier veröffentlichten Artikeln vereinigt. KW - Systembiologie KW - Modellierung KW - Evolution KW - Stoffwechsel KW - Gen-Koexpression KW - Systems Biology KW - Modeling KW - Evolution KW - Metabolism KW - Gene co-expression Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57483 ER -