Refine
Year of publication
Document Type
- Doctoral Thesis (14)
- Article (5)
- Bachelor Thesis (1)
- Monograph/Edited Volume (1)
Is part of the Bibliography
- yes (21)
Keywords
- Simulation (21) (remove)
Institute
- Institut für Geowissenschaften (4)
- Institut für Physik und Astronomie (4)
- Institut für Biochemie und Biologie (2)
- Institut für Chemie (2)
- Institut für Umweltwissenschaften und Geographie (2)
- Wirtschaftswissenschaften (2)
- Fachgruppe Betriebswirtschaftslehre (1)
- Hasso-Plattner-Institut für Digital Engineering GmbH (1)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (1)
- Institut für Informatik und Computational Science (1)
- Institut für Mathematik (1)
The correctness of model transformations is a crucial element for model-driven engineering of high quality software. In particular, behavior preservation is the most important correctness property avoiding the introduction of semantic errors during the model-driven engineering process. Behavior preservation verification techniques either show that specific properties are preserved, or more generally and complex, they show some kind of behavioral equivalence or refinement between source and target model of the transformation. Both kinds of behavior preservation verification goals have been presented with automatic tool support for the instance level, i.e. for a given source and target model specified by the model transformation. However, up until now there is no automatic verification approach available at the transformation level, i.e. for all source and target models specified by the model transformation.
In this report, we extend our results presented in [27] and outline a new sophisticated approach for the automatic verification of behavior preservation captured by bisimulation resp. simulation for model transformations specified by triple graph grammars and semantic definitions given by graph transformation rules. In particular, we show that the behavior preservation problem can be reduced to invariant checking for graph transformation and that the resulting checking problem can be addressed by our own invariant checker even for a complex example where a sequence chart is transformed into communicating automata. We further discuss today's limitations of invariant checking for graph transformation and motivate further lines of future work in this direction.
Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben.
In dieser Arbeit werden nichtlineare Kopplungsmechanismen von akustischen Oszillatoren untersucht, die zu Synchronisation führen können. Aufbauend auf die Fragestellungen vorangegangener Arbeiten werden mit Hilfe theoretischer und experimenteller Studien sowie mit Hilfe numerischer Simulationen die Elemente der Tonentstehung in der Orgelpfeife und die Mechanismen der gegenseitigen Wechselwirkung von Orgelpfeifen identifiziert. Daraus wird erstmalig ein vollständig auf den aeroakustischen und fluiddynamischen Grundprinzipien basierendes nichtlinear gekoppeltes Modell selbst-erregter Oszillatoren für die Beschreibung des Verhaltens zweier wechselwirkender Orgelpfeifen entwickelt. Die durchgeführten Modellrechnungen werden mit den experimentellen Befunden verglichen. Es zeigt sich, dass die Tonentstehung und die Kopplungsmechanismen von Orgelpfeifen durch das entwickelte Oszillatormodell in weiten Teilen richtig beschrieben werden. Insbesondere kann damit die Ursache für den nichtlinearen Zusammenhang von Kopplungsstärke und Synchronisation des gekoppelten Zwei-Pfeifen Systems, welcher sich in einem nichtlinearen Verlauf der Arnoldzunge darstellt, geklärt werden. Mit den gewonnenen Erkenntnissen wird der Einfluss des Raumes auf die Tonentstehung bei Orgelpfeifen betrachtet. Dafür werden numerische Simulationen der Wechselwirkung einer Orgelpfeife mit verschiedenen Raumgeometrien, wie z. B. ebene, konvexe, konkave, und gezahnte Geometrien, exemplarisch untersucht. Auch der Einfluss von Schwellkästen auf die Tonentstehung und die Klangbildung der Orgelpfeife wird studiert. In weiteren, neuartigen Synchronisationsexperimenten mit identisch gestimmten Orgelpfeifen, sowie mit Mixturen wird die Synchronisation für verschiedene, horizontale und vertikale Pfeifenabstände in der Ebene der Schallabstrahlung, untersucht. Die dabei erstmalig beobachteten räumlich isotropen Unstetigkeiten im Schwingungsverhalten der gekoppelten Pfeifensysteme, deuten auf abstandsabhängige Wechsel zwischen gegen- und gleichphasigen Sychronisationsregimen hin. Abschließend wird die Möglichkeit dokumentiert, das Phänomen der Synchronisation zweier Orgelpfeifen durch numerische Simulationen, also der Behandlung der kompressiblen Navier-Stokes Gleichungen mit entsprechenden Rand- und Anfangsbedingungen, realitätsnah abzubilden. Auch dies stellt ein Novum dar.
Existing factories face multiple problems due to their hierarchical structure of decision making and control. Cyber-physical systems principally allow to increase the degree of autonomy to new heights. But which degree of autonomy is really useful and beneficiary? This paper differentiates diverse definitions of autonomy and approaches to determine them. Some experimental findings in a lab environment help to answer the question raised in this paper.
The business problem of having inefficient processes, imprecise process analyses, and simulations as well as non-transparent artificial neuronal network models can be overcome by an easy-to-use modeling concept. With the aim of developing a flexible and efficient approach to modeling, simulating, and optimizing processes, this paper proposes a flexible Concept of Neuronal Modeling (CoNM). The modeling concept, which is described by the modeling language designed and its mathematical formulation and is connected to a technical substantiation, is based on a collection of novel sub-artifacts. As these have been implemented as a computational model, the set of CoNM tools carries out novel kinds of Neuronal Process Modeling (NPM), Neuronal Process Simulations (NPS), and Neuronal Process Optimizations (NPO). The efficacy of the designed artifacts was demonstrated rigorously by means of six experiments and a simulator of real industrial production processes.
Faced with the increasing needs of companies, optimal dimensioning of IT hardware is becoming challenging for decision makers. In terms of analytical infrastructures, a highly evolutionary environment causes volatile, time dependent workloads in its components, and intelligent, flexible task distribution between local systems and cloud services is attractive. With the aim of developing a flexible and efficient design for analytical infrastructures, this paper proposes a flexible architecture model, which allocates tasks following a machine-specific decision heuristic. A simulation benchmarks this system with existing strategies and identifies the new decision maxim as superior in a first scenario-based simulation.
Heterophase polymerization is a technique widely used for the synthesis of high performance polymeric materials with applications including paints, inks, adhesives, synthetic rubber, biomedical applications and many others. Due to the heterogeneous nature of the process, many different relevant length and time scales can be identified. Each of these scales has a direct influence on the kinetics of polymerization and on the physicochemical and performance properties of the final product. Therefore, from the point of view of product and process design and optimization, the understanding of each of these relevant scales and their integration into one single model is a very promising route for reducing the time-to-market in the development of new products, for increasing the productivity and profitability of existing processes, and for designing products with improved performance or cost/performance ratio. The process considered is the synthesis of structured or composite polymer particles by multi-stage seeded emulsion polymerization. This type of process is used for the preparation of high performance materials where a synergistic behavior of two or more different types of polymers is obtained. Some examples include the synthesis of core-shell or multilayered particles for improved impact strength materials and for high resistance coatings and adhesives. The kinetics of the most relevant events taking place in an emulsion polymerization process has been investigated using suitable numerical simulation techniques at their corresponding time and length scales. These methods, which include Molecular Dynamics (MD) simulation, Brownian Dynamics (BD) simulation and kinetic Monte Carlo (kMC) simulation, have been found to be very powerful and highly useful for gaining a deeper insight and achieving a better understanding and a more accurate description of all phenomena involved in emulsion polymerization processes, and can be potentially extended to investigate any type of heterogeneous process. The novel approach of using these kinetic-based numerical simulation methods can be regarded as a complement to the traditional thermodynamic-based macroscopic description of emulsion polymerization. The particular events investigated include molecular diffusion, diffusion-controlled polymerization reactions, particle formation, absorption/desorption of radicals and monomer, and the colloidal aggregation of polymer particles. Using BD simulation it was possible to precisely determine the kinetics of absorption/desorption of molecular species by polymer particles, and to simulate the colloidal aggregation of polymer particles. For diluted systems, a very good agreement between BD simulation and the classical theory developed by Smoluchowski was obtained. However, for concentrated systems, significant deviations from the ideal behavior predicted by Smoluchowski were evidenced. BD simulation was found to be a very valuable tool for the investigation of emulsion polymerization processes especially when the spatial and geometrical complexity of the system cannot be neglected, as is the case of concentrated dispersions, non-spherical particles, structured polymer particles, particles with non-uniform monomer concentration, and so on. In addition, BD simulation was used to describe non-equilibrium monomer swelling kinetics, which is not possible using the traditional thermodynamic approach because it is only valid for systems at equilibrium. The description of diffusion-controlled polymerization reactions was successfully achieved using a new stochastic algorithm for the kMC simulation of imperfectly mixed systems (SSA-IM). In contrast to the traditional stochastic simulation algorithm (SSA) and the deterministic rate of reaction equations, instead of assuming perfect mixing in the whole reactor, the new SSA-IM determines the volume perfectly mixed between two consecutive reactions as a function of the diffusion coefficient of the reacting species. Using this approach it was possible to describe, using a single set of kinetic parameters, typical mass transfer limitations effects during a free radical batch polymerization such as the cage effect, the gel effect and the glass effect. Using multiscale integration it was possible to investigate the formation of secondary particles during the seeded emulsion polymerization of vinyl acetate over a polystyrene seed. Three different cases of radical generation were considered: generation of radicals by thermal decomposition of water-soluble initiating compounds, generation of radicals by a redox reaction at the surface of the particles, and generation of radicals by thermal decomposition of surface-active initiators "inisurfs" attached to the surface of the particles. The simulation results demonstrated the satisfactory reduction in secondary particles formation achieved when the locus of radical generation is controlled close to the particles surface.
The degradation of polymers is described by mathematical models based on bond cleavage statistics including the decreasing probability of chain cuts with decreasing average chain length. We derive equations for the degradation of chains under a random chain cut and a chain end cut mechanism, which are compared to existing models. The results are used to predict the influence of internal molecular parameters. It is shown that both chain cut mechanisms lead to a similar shape of the mass or molecular mass loss curve. A characteristic time is derived, which can be used to extract the maximum length of soluble fragments l of the polymer. We show that the complete description is needed to extract the degradation rate constant k from the molecular mass loss curve and that l can be used to design polymers that lose less mechanical stability before entering the mass loss phase.
In many procedures of seismic risk mitigation, ground motion simulations are needed to test systems or improve their effectiveness. For example they may be used to estimate the level of ground shaking caused by future earthquakes. Good physical models for ground motion simulation are also thought to be important for hazard assessment, as they could close gaps in the existing datasets. Since the observed ground motion in nature shows a certain variability, part of which cannot be explained by macroscopic parameters such as magnitude or position of an earthquake, it would be desirable that a good physical model is not only able to produce one single seismogram, but also to reveal this natural variability.
In this thesis, I develop a method to model realistic ground motions in a way that is computationally simple to handle, permitting multiple scenario simulations. I focus on two aspects of ground motion modelling. First, I use deterministic wave propagation for the whole frequency range – from static deformation to approximately 10 Hz – but account for source variability by implementing self-similar slip distributions and rough fault interfaces. Second, I scale the source spectrum so that the modelled waveforms represent the correct radiated seismic energy. With this scaling I verify whether the energy magnitude is suitable as an explanatory variable, which characterises the amount of energy radiated at high frequencies – the advantage of the energy magnitude being that it can be deduced from observations, even in real-time.
Applications of the developed method for the 2008 Wenchuan (China) earthquake, the 2003 Tokachi-Oki (Japan) earthquake and the 1994 Northridge (California, USA) earthquake show that the fine source discretisations combined with the small scale source variability ensure that high frequencies are satisfactorily introduced, justifying the deterministic wave propagation approach even at high frequencies. I demonstrate that the energy magnitude can be used to calibrate the high-frequency content in ground motion simulations.
Because deterministic wave propagation is applied to the whole frequency range, the simulation method permits the quantification of the variability in ground motion due to parametric uncertainties in the source description. A large number of scenario simulations for an M=6 earthquake show that the roughness of the source as well as the distribution of fault dislocations have a minor effect on the simulated variability by diminishing directivity effects, while hypocenter location and rupture velocity more strongly influence the variability. The uncertainty in energy magnitude, however, leads to the largest differences of ground motion amplitude between different events, resulting in a variability which is larger than the one observed.
For the presented approach, this dissertation shows (i) the verification of the computational correctness of the code, (ii) the ability to reproduce observed ground motions and (iii) the validation of the simulated ground motion variability. Those three steps are essential to evaluate the suitability of the method for means of seismic risk mitigation.
The warm water geothermal reservoir below the village of Waiwera in New Zealand has been known by the native Maori for centuries. Development by the European immigrants began in 1863. Until the year 1969, the warm water flowing from all drilled wells was artesian. Due to overproduction, water up to 50 A degrees C now needs to be pumped to surface. Further, between 1975 and 1976, all warm water seeps on the beach of Waiwera ran dry. Within the context of sustainable water management, hydrogeological models must be developed as part of a management plan. Approaches of varying complexity have been set-up and applied since the 1980s. However, none of the models directly provide all results required for optimal water management. Answers are given simply to parts of the questions, nonetheless improving resource management of the geothermal reservoir.