TY - BOOK A1 - Vogel, Thomas A1 - Giese, Holger T1 - Model-driven engineering of adaptation engines for self-adaptive software : executable runtime megamodels N2 - The development of self-adaptive software requires the engineering of an adaptation engine that controls and adapts the underlying adaptable software by means of feedback loops. The adaptation engine often describes the adaptation by using runtime models representing relevant aspects of the adaptable software and particular activities such as analysis and planning that operate on these runtime models. To systematically address the interplay between runtime models and adaptation activities in adaptation engines, runtime megamodels have been proposed for self-adaptive software. A runtime megamodel is a specific runtime model whose elements are runtime models and adaptation activities. Thus, a megamodel captures the interplay between multiple models and between models and activities as well as the activation of the activities. In this article, we go one step further and present a modeling language for ExecUtable RuntimE MegAmodels (EUREMA) that considerably eases the development of adaptation engines by following a model-driven engineering approach. We provide a domain-specific modeling language and a runtime interpreter for adaptation engines, in particular for feedback loops. Megamodels are kept explicit and alive at runtime and by interpreting them, they are directly executed to run feedback loops. Additionally, they can be dynamically adjusted to adapt feedback loops. Thus, EUREMA supports development by making feedback loops, their runtime models, and adaptation activities explicit at a higher level of abstraction. Moreover, it enables complex solutions where multiple feedback loops interact or even operate on top of each other. Finally, it leverages the co-existence of self-adaptation and off-line adaptation for evolution. N2 - Die Entwicklung selbst-adaptiver Software erfordert die Konstruktion einer sogenannten "Adaptation Engine", die mittels Feedbackschleifen die unterliegende Software steuert und anpasst. Die Anpassung selbst wird häufig mittels Laufzeitmodellen, die die laufende Software repräsentieren, und Aktivitäten wie beispielsweise Analyse und Planung, die diese Laufzeitmodelle nutzen, beschrieben. Um das Zusammenspiel zwischen Laufzeitmodellen und Aktivitäten systematisch zu erfassen, wurden Megamodelle zur Laufzeit für selbst-adaptive Software vorgeschlagen. Ein Megamodell zur Laufzeit ist ein spezielles Laufzeitmodell, dessen Elemente Aktivitäten und andere Laufzeitmodelle sind. Folglich erfasst ein Megamodell das Zusammenspiel zwischen verschiedenen Laufzeitmodellen und zwischen Aktivitäten und Laufzeitmodellen als auch die Aktivierung und Ausführung der Aktivitäten. Darauf aufbauend präsentieren wir in diesem Artikel eine Modellierungssprache für ausführbare Megamodelle zur Laufzeit, EUREMA genannt, die aufgrund eines modellgetriebenen Ansatzes die Entwicklung selbst-adaptiver Software erleichtert. Der Ansatz umfasst eine domänen-spezifische Modellierungssprache und einen Laufzeit-Interpreter für Adaptation Engines, insbesondere für Feedbackschleifen. EUREMA Megamodelle werden über die Spezifikationsphase hinaus explizit zur Laufzeit genutzt, um mittels Interpreter Feedbackschleifen direkt auszuführen. Zusätzlich können Megamodelle zur Laufzeit dynamisch geändert werden, um Feedbackschleifen anzupassen. Daher unterstützt EUREMA die Entwicklung selbst-adaptiver Software durch die explizite Spezifikation von Feedbackschleifen, der verwendeten Laufzeitmodelle, und Adaptionsaktivitäten auf einer höheren Abstraktionsebene. Darüber hinaus ermöglicht EUREMA komplexe Lösungskonzepte, die mehrere Feedbackschleifen und deren Interaktion wie auch die hierarchische Komposition von Feedbackschleifen umfassen. Dies unterstützt schließlich das integrierte Zusammenspiel von Selbst-Adaption und Wartung für die Evolution der Software. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 66 KW - Modellgetriebene Softwareentwicklung KW - Modellierungssprachen KW - Modellierung KW - Laufzeitmodelle KW - Megamodell KW - Ausführung von Modellen KW - Model-Driven Engineering KW - Modeling Languages KW - Modeling KW - Models at Runtime KW - Megamodels KW - Model Execution KW - Self-Adaptive Software Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63825 SN - 978-3-86956-227-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Becker, Basil A1 - Giese, Holger T1 - Cyber-physical systems with dynamic structure : towards modeling and verification of inductive invariants N2 - Cyber-physical systems achieve sophisticated system behavior exploring the tight interconnection of physical coupling present in classical engineering systems and information technology based coupling. A particular challenging case are systems where these cyber-physical systems are formed ad hoc according to the specific local topology, the available networking capabilities, and the goals and constraints of the subsystems captured by the information processing part. In this paper we present a formalism that permits to model the sketched class of cyber-physical systems. The ad hoc formation of tightly coupled subsystems of arbitrary size are specified using a UML-based graph transformation system approach. Differential equations are employed to define the resulting tightly coupled behavior. Together, both form hybrid graph transformation systems where the graph transformation rules define the discrete steps where the topology or modes may change, while the differential equations capture the continuous behavior in between such discrete changes. In addition, we demonstrate that automated analysis techniques known for timed graph transformation systems for inductive invariants can be extended to also cover the hybrid case for an expressive case of hybrid models where the formed tightly coupled subsystems are restricted to smaller local networks. N2 - Cyber-physical Systeme erzielen ihr ausgefeiltes Systemverhalten durch die enge Verschränkung von physikalischer Kopplung, wie sie in Systemen der klassichen Igenieurs-Disziplinen vorkommt, und der Kopplung durch Informationstechnologie. Eine besondere Herausforderung stellen in diesem Zusammenhang Systeme dar, die durch die spontane Vernetzung einzelner Cyber-Physical-Systeme entsprechend der lokalen, topologischen Gegebenheiten, verfügbarer Netzwerkfähigkeiten und der Anforderungen und Beschränkungen der Teilsysteme, die durch den informationsverabeitenden Teil vorgegeben sind, entstehen. In diesem Bericht stellen wir einen Formalismus vor, der die Modellierung der eingangs skizzierten Systeme erlaubt. Ein auf UML aufbauender Graph-Transformations-Ansatz wird genutzt, um die spontane Bildung eng kooperierender Teilsysteme beliebiger Größe zu spezifizieren. Differentialgleichungen beschreiben das kombinierte Verhalten auf physikalischer Ebene. In Kombination ergeben diese beiden Formalismen hybride Graph-Transformations-Systeme, in denen die Graph-Transformationen diskrete Schritte und die Differentialgleichungen das kontinuierliche, physikalische Verhalten des Systems beschreiben. Zusätzlich, präsentieren wir die Erweiterung einer automatischen Analysetechnik zur Verifikation induktiver Invarianten, die bereits für zeitbehaftete Systeme bekannt ist, auf den ausdrucksstärkeren Fall der hybriden Modelle. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 64 KW - Cyber-Physical-Systeme KW - Verifikation KW - Modellierung KW - hybride Graph-Transformations-Systeme KW - Cyber-physical-systems KW - verification KW - modeling KW - hybrid graph-transformation-systems Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62437 SN - 978-3-86956-217-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Züllich, Gunda T1 - Migration and development in Senegal : a system dynamics analysis of the feedback relationships N2 - This thesis investigates the reciprocal relationship between migration and development in Senegal. Therewith, it contributes to the debate as to whether migration in developing countries enhances or rather impedes the development process. Even though extensive and controversial discussions can be found in the scientific literature regarding the impact of migration on development, research has scarcely examined the feedback relationships between migration and development. Science however agrees with both the fact that migration affects development as well as that the level of development in a country determines migration behaviour. Thus, both variables are neither dependent nor independent, but endogenous variables influencing each other and producing behavioural pattern that cannot be investigated using a static and unidirectional approach. On account of this, the thesis studies the feedback mechanisms existing between migration and development and the behavioural pattern generated by the high interdependence in order to be able to draw conclusions concerning the impact of changes in migration behaviour on the development process. To explore these research questions, the study applies the computer simulation method ‘System Dynamics’ and amplifies the simulation model for national development planning called ‘Threshold 21’ (T21), representing development processes endogenously and integrating economic, social and environmental aspects, using a structure that portrays the reasons and consequences of migration. The model has been customised to Senegal, being an appropriate representative of the theoretical interesting universe of cases. The comparison of the model generated scenarios - in which the intensity of emigration, the loss and gain of education, the remittances or the level of dependence changes - facilitates the analysis. The present study produces two important results. The first outcome is the development of an integrative framework representing migration and development in an endogenous way and incorporating several aspects of different theories. This model can be used as a starting point for further discussions and improvements and it is a fairly relevant and useful result against the background that migration is not integrated into most of the development planning tools despite its significant impact. The second outcome is the gained insights concerning the feedback relations between migration and development and the impact of changes in migration on development. To give two examples: It could be found that migration impacts development positively, indicated by HDI, but that the dominant behaviour of migration and development is a counteracting behaviour. That means that an increase in emigration leads to an improvement in development, while this in turn causes a decline in emigration, counterbalancing the initial increase. Another insight concerns the discovery that migration causes a decline in education in the short term, but leads to an increase in the long term, after approximately 25 years - a typical worse-before-better behaviour. From these and further observations, important policy implications can be derived for the sending and receiving countries. Hence, by overcoming the unidirectional perspective, this study contributes to an improved understanding of the highly complex relationship between migration and development and their feedback relations. N2 - Die vorliegende Arbeit untersucht das wechselseitige Verhältnis zwischen Migration und Entwicklung im Senegal. Damit soll ein Beitrag zu der Debatte geleistet werden, ob Migration in Entwicklungsländern den Entwicklungsprozess eher fördert oder verhindert. Während die Frage nach der Auswirkung von Migration auf Entwicklung in der Literatur ausgiebig und kontrovers diskutiert wird, hat sich die Forschung bisher kaum den Rückkopplungen zwischen Migration und Entwicklung gewidmet, obwohl sich die Wissenschaft sowohl darüber einig ist, dass Migration den Entwicklungsprozess beeinflusst, als auch, dass der Entwicklungsstand eines Land das Migrationsverhalten bestimmt. Folglich sind beide Variablen weder abhängig, noch unabhängige, sondern endogene Variablen, die sich gegenseitig beeinflussen und damit Verhaltensweisen produzieren, deren Erforschung ein statischer, unidirektionaler Ansatz nicht gerecht wird. Deswegen fragt diese Arbeit nach den Rückwirkungsmechanismen, die zwischen Migration und Entwicklung existieren, und nach den Verhaltensweisen, die durch die hohe Interdependenz entstehen, um daraus Rückschlüsse auf die Frage ziehen zu können, welchen Einfluss Änderungen im Migrationsverhalten auf den Entwicklungsprozess haben. Um diese Forschungsfragen zu untersuchen wurde die Computersimulationsmethode System Dynamics genutzt und das Simulationsmodell zur nationalen Entwicklungsplanung, das ‚Threshold 21’ (T21), das die Entwicklungsprozesse endogen darstellt und soziale, ökonomische sowie ökologische Aspekte miteinander verknüpft, um eine Struktur erweitert, welche die Gründe und Konsequenzen von Migration abbildet. Dies wurde an den Senegal, ein angemessener Repräsentant der theoretisch interessanten Grundgesamtheit, angepasst. Der Vergleich der mit dem Modell generierten Szenarien, in denen die Intensität der Abwanderung, des Bildungsverlustes, des Bildungsgewinns, der Geldüberweisungen, oder der Abhängigkeit verändert wurden, ermöglichte die Analyse. Die Studie bringt zwei wichtige Ergebnisse hervor. Erstens entwickelt sie ein umfangreiches Modell, das Migration und Entwicklung endogen erklärt und verschiedene theoretische Ansatzpunkte enthält. Dies kann sowohl als Grundlage für weitere Diskussion und Verbesserungen genutzt werden, ist aber vor allem vor dem Hintergrund, dass Migration in den meisten Modellen zur Entwicklungsplanung trotz des relevanten Einflusses nicht integriert ist, ein wichtiges und nützliches Resultat. Zweitens konnte die Analyse des Verhaltens des Modells wichtige Erkenntnisse bezüglich der Rückwirkungsmechanismen zwischen Migration und Entwicklung und der Wirkung von Veränderungen in Migration auf Entwicklung erzielen. Um zwei Beispiele zu nennen, wurde herausgearbeitet, dass Migration sich positiv auf Entwicklung, gemessen am Human Development Index (HDI), auswirkt, dass es sich aber generell um ein sich ausgleichendes Verhalten handelt, da die positiven Einflüsse auf Entwicklung ihrerseits Migration verringern, wodurch die positiven Einflüsse wieder abnehmen. Ebenso konnte festgestellt werden, dass Migration für das Bildungsniveau zunächst eine Verschlechterung, später aber, nach ca. 25 Jahren, eine Verbesserung nach sich zieht. Aus diesen und weiteren Beobachtungen können wichtige Politikempfehlungen für die Sende- und Empfängerländer von Migration abgeleitet werden. Durch das Überwinden der unidirektionalen Betrachtungsweise trägt diese Arbeit somit zu einem besseren Verständnis des hoch komplexen und von Rückwirkungsmechanismen geprägten Verhältnisses zwischen Migration und Entwicklung bei. KW - Internationale Migration KW - Nachhaltige Entwicklung KW - Senegal KW - System Dynamics KW - Modellierung KW - International Migration KW - Sustainable Development KW - Senegal KW - System Dynamics KW - Modelling Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57836 ER - TY - THES A1 - Polyvyanyy, Artem T1 - Structuring process models T1 - Strukturierung von Prozessmodellen N2 - One can fairly adopt the ideas of Donald E. Knuth to conclude that process modeling is both a science and an art. Process modeling does have an aesthetic sense. Similar to composing an opera or writing a novel, process modeling is carried out by humans who undergo creative practices when engineering a process model. Therefore, the very same process can be modeled in a myriad number of ways. Once modeled, processes can be analyzed by employing scientific methods. Usually, process models are formalized as directed graphs, with nodes representing tasks and decisions, and directed arcs describing temporal constraints between the nodes. Common process definition languages, such as Business Process Model and Notation (BPMN) and Event-driven Process Chain (EPC) allow process analysts to define models with arbitrary complex topologies. The absence of structural constraints supports creativity and productivity, as there is no need to force ideas into a limited amount of available structural patterns. Nevertheless, it is often preferable that models follow certain structural rules. A well-known structural property of process models is (well-)structuredness. A process model is (well-)structured if and only if every node with multiple outgoing arcs (a split) has a corresponding node with multiple incoming arcs (a join), and vice versa, such that the set of nodes between the split and the join induces a single-entry-single-exit (SESE) region; otherwise the process model is unstructured. The motivations for well-structured process models are manifold: (i) Well-structured process models are easier to layout for visual representation as their formalizations are planar graphs. (ii) Well-structured process models are easier to comprehend by humans. (iii) Well-structured process models tend to have fewer errors than unstructured ones and it is less probable to introduce new errors when modifying a well-structured process model. (iv) Well-structured process models are better suited for analysis with many existing formal techniques applicable only for well-structured process models. (v) Well-structured process models are better suited for efficient execution and optimization, e.g., when discovering independent regions of a process model that can be executed concurrently. Consequently, there are process modeling languages that encourage well-structured modeling, e.g., Business Process Execution Language (BPEL) and ADEPT. However, the well-structured process modeling implies some limitations: (i) There exist processes that cannot be formalized as well-structured process models. (ii) There exist processes that when formalized as well-structured process models require a considerable duplication of modeling constructs. Rather than expecting well-structured modeling from start, we advocate for the absence of structural constraints when modeling. Afterwards, automated methods can suggest, upon request and whenever possible, alternative formalizations that are "better" structured, preferably well-structured. In this thesis, we study the problem of automatically transforming process models into equivalent well-structured models. The developed transformations are performed under a strong notion of behavioral equivalence which preserves concurrency. The findings are implemented in a tool, which is publicly available. N2 - Im Sinne der Ideen von Donald E. Knuth ist die Prozessmodellierung sowohl Wissenschaft als auch Kunst. Prozessmodellierung hat immer auch eine ästhetische Dimension. Wie das Komponieren einer Oper oder das Schreiben eines Romans, so stellt auch die Prozessmodellierung einen kreativen Akt eines Individuums dar. Somit kann ein Prozess auf unterschiedlichste Weise modelliert werden. Prozessmodelle können anschließend mit wissenschaftlichen Methoden untersucht werden. Prozessmodelle liegen im Regelfall als gerichtete Graphen vor. Knoten stellen Aktivitäten und Entscheidungspunkte dar, während gerichtete Kanten die temporalen Abhängigkeiten zwischen den Knoten beschreiben. Gängige Prozessmodellierungssprachen, zum Beispiel die Business Process Model and Notation (BPMN) und Ereignisgesteuerte Prozessketten (EPK), ermöglichen die Erstellung von Modellen mit einer beliebig komplexen Topologie. Es gibt keine strukturellen Einschränkungen, welche die Kreativität oder Produktivität durch eine begrenzte Anzahl von Modellierungsalternativen einschränken würden. Nichtsdestotrotz ist es oft wünschenswert, dass Modelle bestimmte strukturelle Eigenschaften haben. Ein bekanntes strukturelles Merkmal für Prozessmodelle ist Wohlstrukturiertheit. Ein Prozessmodell ist wohlstrukturiert genau dann, wenn jeder Knoten mit mehreren ausgehenden Kanten (ein Split) einen entsprechenden Knoten mit mehreren eingehenden Kanten (einen Join) hat, und umgekehrt, so dass die Knoten welche zwischen dem Split und dem Join liegen eine single-entry-single-exit (SESE) Region bilden. Ist dies nicht der Fall, so ist das Modell unstrukturiert. Wohlstrukturiertheit ist aufgrund einer Vielzahl von Gründen wünschenswert: (i) Wohlstrukturierte Modelle sind einfacher auszurichten, wenn sie visualisiert werden, da sie planaren Graphen entsprechen. (ii) Wohlstrukturierte Modelle zeichnen sich durch eine höhere Verständlichkeit aus. (iii) Wohlstrukturierte Modelle haben oft weniger Fehler als unstrukturierte Modelle. Auch ist die Wahrscheinlichkeit fehlerhafter Änderungen größer, wenn Modelle unstrukturiert sind. (iv) Wohlstrukturierte Modelle eignen sich besser für die formale Analyse, da viele Techniken nur für wohlstrukturierte Modelle anwendbar sind. (v) Wohlstrukturierte Modelle sind eher für die effiziente Ausführung und Optimierung geeignet, z.B. wenn unabhängige Regionen eines Prozesses für die parallele Ausführung identifiziert werden. Folglich gibt es eine Reihe von Prozessmodellierungssprachen, z.B. die Business Process Execution Language (BPEL) und ADEPT, welche den Modellierer anhalten nur wohlstrukturierte Modelle zu erstellen. Solch wohlstrukturiertes Modellieren impliziert jedoch gewisse Einschränkungen: (i) Es gibt Prozesse, welche nicht mittels wohlstrukturierten Prozessmodellen dargestellt werden können. (ii) Es gibt Prozesse, für welche die wohlstrukturierte Modellierung mit einer erheblichen Vervielfältigung von Modellierungs-konstrukten einhergeht. Aus diesem Grund vertritt diese Arbeit den Standpunkt, dass ohne strukturelle Einschränkungen modelliert werden sollte, anstatt Wohlstrukturiertheit von Beginn an zu verlangen. Anschließend können, sofern gewünscht und wo immer es möglich ist, automatische Methoden Modellierungsalternativen vorschlagen, welche "besser" strukturiert sind, im Idealfall sogar wohlstrukturiert. Die vorliegende Arbeit widmet sich dem Problem der automatischen Transformation von Prozessmodellen in verhaltensäquivalente wohlstrukturierte Prozessmodelle. Die vorgestellten Transformationen erhalten ein strenges Verhaltensequivalenzkriterium, welches die Parallelität wahrt. Die Resultate sind in einem frei verfügbaren Forschungsprototyp implementiert worden. KW - Strukturierung KW - Wohlstrukturiertheit KW - Prozesse KW - Verhalten KW - Modellierung KW - Structuring KW - Well-structuredness KW - Process KW - Behavior KW - Modeling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59024 ER - TY - THES A1 - Schütte, Moritz T1 - Evolutionary fingerprints in genome-scale networks T1 - Evolutionäre Spuren in genomskaligen Netzwerken N2 - Mathematical modeling of biological phenomena has experienced increasing interest since new high-throughput technologies give access to growing amounts of molecular data. These modeling approaches are especially able to test hypotheses which are not yet experimentally accessible or guide an experimental setup. One particular attempt investigates the evolutionary dynamics responsible for today's composition of organisms. Computer simulations either propose an evolutionary mechanism and thus reproduce a recent finding or rebuild an evolutionary process in order to learn about its mechanism. The quest for evolutionary fingerprints in metabolic and gene-coexpression networks is the central topic of this cumulative thesis based on four published articles. An understanding of the actual origin of life will probably remain an insoluble problem. However, one can argue that after a first simple metabolism has evolved, the further evolution of metabolism occurred in parallel with the evolution of the sequences of the catalyzing enzymes. Indications of such a coevolution can be found when correlating the change in sequence between two enzymes with their distance on the metabolic network which is obtained from the KEGG database. We observe that there exists a small but significant correlation primarily on nearest neighbors. This indicates that enzymes catalyzing subsequent reactions tend to be descended from the same precursor. Since this correlation is relatively small one can at least assume that, if new enzymes are no "genetic children" of the previous enzymes, they certainly be descended from any of the already existing ones. Following this hypothesis, we introduce a model of enzyme-pathway coevolution. By iteratively adding enzymes, this model explores the metabolic network in a manner similar to diffusion. With implementation of an Gillespie-like algorithm we are able to introduce a tunable parameter that controls the weight of sequence similarity when choosing a new enzyme. Furthermore, this method also defines a time difference between successive evolutionary innovations in terms of a new enzyme. Overall, these simulations generate putative time-courses of the evolutionary walk on the metabolic network. By a time-series analysis, we find that the acquisition of new enzymes appears in bursts which are pronounced when the influence of the sequence similarity is higher. This behavior strongly resembles punctuated equilibrium which denotes the observation that new species tend to appear in bursts as well rather than in a gradual manner. Thus, our model helps to establish a better understanding of punctuated equilibrium giving a potential description at molecular level. From the time-courses we also extract a tentative order of new enzymes, metabolites, and even organisms. The consistence of this order with previous findings provides evidence for the validity of our approach. While the sequence of a gene is actually subject to mutations, its expression profile might also indirectly change through the evolutionary events in the cellular interplay. Gene coexpression data is simply accessible by microarray experiments and commonly illustrated using coexpression networks where genes are nodes and get linked once they show a significant coexpression. Since the large number of genes makes an illustration of the entire coexpression network difficult, clustering helps to show the network on a metalevel. Various clustering techniques already exist. However, we introduce a novel one which maintains control of the cluster sizes and thus assures proper visual inspection. An application of the method on Arabidopsis thaliana reveals that genes causing a severe phenotype often show a functional uniqueness in their network vicinity. This leads to 20 genes of so far unknown phenotype which are however suggested to be essential for plant growth. Of these, six indeed provoke such a severe phenotype, shown by mutant analysis. By an inspection of the degree distribution of the A.thaliana coexpression network, we identified two characteristics. The distribution deviates from the frequently observed power-law by a sharp truncation which follows after an over-representation of highly connected nodes. For a better understanding, we developed an evolutionary model which mimics the growth of a coexpression network by gene duplication which underlies a strong selection criterion, and slight mutational changes in the expression profile. Despite the simplicity of our assumption, we can reproduce the observed properties in A.thaliana as well as in E.coli and S.cerevisiae. The over-representation of high-degree nodes could be identified with mutually well connected genes of similar functional families: zinc fingers (PF00096), flagella, and ribosomes respectively. In conclusion, these four manuscripts demonstrate the usefulness of mathematical models and statistical tools as a source of new biological insight. While the clustering approach of gene coexpression data leads to the phenotypic characterization of so far unknown genes and thus supports genome annotation, our model approaches offer explanations for observed properties of the coexpression network and furthermore substantiate punctuated equilibrium as an evolutionary process by a deeper understanding of an underlying molecular mechanism. N2 - Die biologische Zelle ist ein sehr kompliziertes Gebilde. Bei ihrer Betrachtung gilt es, das Zusammenspiel von Tausenden bis Millionen von Genen, Regulatoren, Proteinen oder Molekülen zu beschreiben und zu verstehen. Durch enorme Verbesserungen experimenteller Messgeräte gelingt es mittlerweile allerdings in geringer Zeit enorme Datenmengen zu messen, seien dies z.B. die Entschlüsselung eines Genoms oder die Konzentrationen der Moleküle in einer Zelle. Die Systembiologie nimmt sich dem Problem an, aus diesem Datenmeer ein quantitatives Verständnis für die Gesamtheit der Wechselwirkungen in der Zelle zu entwickeln. Dabei stellt die mathematische Modellierung und computergestützte Analyse ein eminent wichtiges Werkzeug dar, lassen sich doch am Computer in kurzer Zeit eine Vielzahl von Fällen testen und daraus Hypothesen generieren, die experimentell verifiziert werden können. Diese Doktorarbeit beschäftigt sich damit, wie durch mathematische Modellierung Rückschlüsse auf die Evolution und deren Mechanismen geschlossen werden können. Dabei besteht die Arbeit aus zwei Teilen. Zum Einen wurde ein Modell entwickelt, dass die Evolution des Stoffwechsels nachbaut. Der zweite Teil beschäftigt sich mit der Analyse von Genexpressionsdaten, d.h. der Stärke mit der ein bestimmtes Gen in ein Protein umgewandelt, "exprimiert", wird. Der Stoffwechsel bezeichnet die Gesamtheit der chemischen Vorgänge in einem Organismus; zum Einen werden Nahrungsstoffe für den Organismus verwertbar zerlegt, zum Anderen aber auch neue Stoffe aufgebaut. Da für nahezu jede chemische Reaktion ein katalysierendes Enzym benötigt wird, ist davon auszugehen, dass sich der Stoffwechsel parallel zu den Enzymen entwickelt hat. Auf dieser Annahme basiert das entwickelte Modell zur Enzyme-Stoffwechsel-Koevolution. Von einer Anfangsmenge von Enzymen und Molekülen ausgehend, die etwa in einer primitiven Atmosphäre vorgekommen sind, werden sukzessive Enzyme und die nun katalysierbaren Reaktionen hinzugefügt, wodurch die Stoffwechselkapazität anwächst. Die Auswahl eines neuen Enzyms geschieht dabei in Abhängigkeit von der Ähnlichkeit mit bereits vorhandenen und ist so an den evolutionären Vorgang der Mutation angelehnt: je ähnlicher ein neues Enzym zu den vorhandenen ist, desto schneller kann es hinzugefügt werden. Dieser Vorgang wird wiederholt, bis der Stoffwechsel die heutige Form angenommen hat. Interessant ist vor allem der zeitliche Verlauf dieser Evolution, der mittels einer Zeitreihenanalyse untersucht wird. Dabei zeigt sich, dass neue Enzyme gebündelt in Gruppen kurzer Zeitfolge auftreten, gefolgt von Intervallen relativer Stille. Dasselbe Phänomen kennt man von der Evolution neuer Arten, die ebenfalls gebündelt auftreten, und wird Punktualismus genannt. Diese Arbeit liefert somit ein besseres Verständnis dieses Phänomens durch eine Beschreibung auf molekularer Ebene. Im zweiten Projekt werden Genexpressionsdaten von Pflanzen analysiert. Einerseits geschieht dies mit einem eigens entwickelten Cluster-Algorithmus. Hier läßt sich beobachten, dass Gene mit einer ähnlichen Funktion oft auch ein ähnliches Expressionsmuster aufweisen. Das Clustering liefert einige Genkandidaten, deren Funktion bisher unbekannt war, von denen aber nun vermutet werden konnte, dass sie enorm wichtig für das Wachstum der Pflanze sind. Durch Experimente von Pflanzen mit und ohne diese Gene zeigte sich, dass sechs neuen Genen dieses essentielle Erscheinungsbild zugeordnet werden kann. Weiterhin wurden Netzwerke der Genexpressionsdaten einer Pflanze, eines Pilzes und eines Bakteriums untersucht. In diesen Netzwerken werden zwei Gene verbunden, falls sie ein sehr ähnliches Expressionsprofil aufweisen. Nun zeigten diese Netzwerke sehr ähnliche und charakteristische Eigenschaften auf. Im Rahmen dieser Arbeit wurde daher ein weiteres evolutionäres Modell entwickelt, das die Expressionsprofile anhand von Duplikation, Mutation und Selektion beschreibt. Obwohl das Modell auf sehr simplen Eigenschaften beruht, spiegelt es die beobachteten Eigenschaften sehr gut wider, und es läßt sich der Schluss ziehen, dass diese als Resultat der Evolution betrachtet werden können. Die Ergebnisse dieser Arbeiten sind als Doktorarbeit in kumulativer Form bestehend aus vier veröffentlichten Artikeln vereinigt. KW - Systembiologie KW - Modellierung KW - Evolution KW - Stoffwechsel KW - Gen-Koexpression KW - Systems Biology KW - Modeling KW - Evolution KW - Metabolism KW - Gene co-expression Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57483 ER - TY - THES A1 - Reusser, Dominik Edwin T1 - Combining smart model diagnostics and effective data collection for snow catchments T1 - Zeitlich aufgelöste Modelldiagnose und kosteneffektive Messungen für Schneeeinzugsgebiete N2 - Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment. N2 - Modelle zur Hochwasservorhersage und –warnung basieren auf einer bio-physikalisch Repräsentation der relevanten hydrologischen Prozesse. Eine Verbesserungen der Beschreibung dieser Prozesse kann zuverlässigere Vorhersagen ermöglichen. Dazu wird die Benutzung eines Lernzykluses bestehend aus einer kritische Beurteilung eines existierenden Modells, der Erhebung zusätzlicher Daten, der Bildung eines vertieften Verständnis und einer Überarbeitung des Modells vorgeschlagen. In dieser Arbeit wird ein solcher Lernzyklus aufgegriffen, wobei der Schwerpunkt auf einer verbesserten Modellanalyse und kosteneffizientere Messungen liegt. Für eine erfolgreiche Modellbeurteilung sind drei Fragen zu beantworten: 1) Wann reproduziert ein Modell die beobachteten Werte in einer zufriedenstellenden Weise (nicht)? 2) Wie lassen sich die Abweichungen charakterisieren? und 3) welches sind die Modellkomponenten, die diese Abweichungen bedingen? Um die ersten beiden Fragen zu beantworten, wird eine neue Methode zur Beurteilung des zeitlichen Verlaufs der Modellgüte vorgestellt. Eine wichtige Stärke ist, dass wiederholende Muster ungenügender Modellgüte auch für lange Simulationsläufe einfach identifiziert werden können. Die dritte Frage wird durch die Analyse des zeitlichen Verlaufs der Parametersensitivität beantwortet. Eine Kombination der beiden Methoden zur Beantwortung aller drei Fragen stellt ein umfangreiches Werkzeug für die Analyse hydrologischer Modelle zur Verfügung. Als Fallstudie wurde WaSiM-ETH verwendet, um das Einzugsgebiet der wilden Weißeritz zu modellieren. Die Modellanalyse von WaSiM-ETH hat ergeben, dass die Schneedynamik und die Rezession während trockener Perioden im Spätsommer und Herbst, für eine Beschreibung der Prozesse an der Weißeritz nicht geeignet sind. Die Erhebung zusätzlicher Daten zum besseren Verständnis der Schneedynamik bildet den nächste Schritt im Lernzyklus. Daten über Schneetemperaturen und Schneehöhen wurden mit Hilfe eines neuen, preisgünstigen Verfahrens erhoben. Dazu wurde die Temperatur an jedem Standort mit unterschiedlichen Abständen zum Boden gemessen und mit einem neuen Algorithmus in Schneehöhe und Kältegehalt umgerechnet. Die Schneehöhe und Kältegehalt sind wichtige Größen für die Vorhersage von Frühjahrshochwassern. Die räumliche Variabilität der Schneedecke auf der Einzugsgebietsskala wurde entsprechend der Landnutzung, der Höhenzone und der Ausrichtung stratifiziert untersucht, wobei lediglich der Einfluss der Höhe nachgewiesen werden konnte, während Ausrichtung und Landnutzung keinen statistisch signifikanten Einfluss hatten. Um die Defizite des WaSiM-ETH Schneemodules für die Beschreibung der Prozesse im Weißeritzeinzugsgebiets besser zu verstehen, wurde der gleiche konzeptionelle Ansatz als eigenständiges, kleines Modell benutzt, um die Dynamik in den Schneedaten zu reproduzieren. Während dieses Grad-Tag-Modell in der Lage war, den zeitlichen Verlauf für Flächen mit einer kontinuierlichen Schneedecke zu reproduzieren, konnte die Dynamik für Flächen mit mehreren Akkumulations- und Schmelzzyklen im unteren Einzugsgebiet vom Modell nicht abgebildet werden. Vorschläge zur Verbesserung des Modells werden in der Arbeit gemacht. Zusammenfassend hat sich das Lernzyklus-Konzept als nützlich erwiesen, um gezielt an einer Modellverbesserung zu arbeiten. Die differenzierte Modelldiagnose ist wertvoll, um Defizite im Modellkonzept zu identifizieren. Die während dieser Studie erhobenen Daten sind geeignet, um ein verbessertes Verständnis der Schnee-Prozesse an der Weißeritz zu erlangen. KW - Hydrologie KW - Modellierung KW - Modell Diagnose KW - Schnee KW - Sensitivitätsanalyse KW - hydrology KW - modelling KW - model diagnostics KW - snow KW - sensitivity analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52574 ER - TY - THES A1 - Huber, Veronika Emilie Charlotte T1 - Climate impact on phytoplankton blooms in shallow lakes T1 - Der Einfluss des Klimas auf Algenblüten in Flachseen N2 - Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (Müggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems. N2 - Weltweit haben Seeökosysteme auf den Klimawandel der letzten Jahrzehnte reagiert. Beobachtete Veränderungen eindeutig dem Klimawandel zuzuordnen, wird jedoch häufig dadurch erschwert, dass Seen gleichzeitig vielfachen anthropogenen Einflüssen ausgesetzt sind. Diese Arbeit trägt zu einem besseren Verständnis des Klimaeinflusses auf Algen bei, die am Anfang der Nahrungskette stehen und maßgeblich die Wasserqualität eines Sees beeinflussen können. Zum größten Teil stützt sich die Arbeit auf eine dreißigjährige Datenreihe eines unregelmäßig geschichteten Flachsees im Nordosten von Deutschland (Müggelsee), in dem sowohl steigende Wassertemperaturen als auch sinkende Nährstoffeinträge zu verzeichnen waren. Bei der Datenanalyse wurde ein neu erstelltes dynamisches Simulationsmodell, genetische Algorithmen zur Parametrisierung von Modellen, und statistische Methoden der Klassifizierung und Zeitreihenanalyse genutzt. Ergebnisse dieser Arbeit zeigen, dass nicht nur klimatische Faktoren sondern auch die Nährstoffverfügbarkeit im See den Zeitpunkt der Algenfrühjahrsblüte (Phänologie) beeinflussen. Durch eine Veränderung der Mechanismen, die zum Kollaps der Blüte führen, trat diese trotz ähnlich milder Winterbedingungen bei hoher Nährstoffverfügbarkeit früher auf als bei niedriger. Ein neuentwickelter Ansatz zur Modellierung von Phänologie erwies sich als geeignet, um vorherzusagen, wann Algen und ihre Räuber in einem künstlich periodisch angetriebenen Laborsystem ihre Populationshöhepunkte erreichten. Eine Verlängerung der Wachstumsperiode führte dazu, dass diese früher auftraten. Die Untersuchung, warum sich Blaualgen im betrachteten See während jüngster Hitzewellenereignisse überraschend unterschiedlich entwickelt hatten, ergab, dass ungewöhnlich warmes Wetter nicht wie häufig vermutet generell förderlich für ihre Entwicklung ist. Der Zeitpunkt und die Dauer der Hitzewellen waren entscheidend dafür, ob für Blaualgen kritische Schwellenwerte der thermischen Schichtung im See überschritten wurden. Zudem zeigte sich, dass saisonale Erwärmungsmuster einen bedeutenden Einfluss auf Räuber nahmen, die das Auftreten von Algenblüten verhindern können. Diese Arbeit reiht sich in eine wachsende Anzahl von Studien ein, die zeigen, dass Seeökosysteme bereits stark auf die Klimaveränderungen der letzen Jahrzehnte reagiert haben. Mit ihrem Fokus auf Mechanismen und der expliziten Berücksichtigung simultaner anthropogener Einflüsse geht diese Arbeit gleichzeitig über viele bisherige Studien hinaus, die sich auf reine Beobachtung und die Betrachtung klimatischer Faktoren beschränkten. Kernergebnisse deuten daraufhin, dass Klimafolgen in nährstoffreichen Seen stärker ausfallen als in nährstoffarmen Seen. Nur mit einem umfassenden, mechanistischen Verständnis des vielfältigen anthropogenen Einflusses wird eine hohe Wasserqualität in Seen auch in Zukunft aufrechtzuerhalten sein. KW - Klimawandel KW - Gewässer KW - Phytoplankton KW - Phänologie KW - Modellierung KW - climate change KW - freshwater KW - phytoplankton KW - phenology KW - modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42346 ER - TY - THES A1 - Jechow, Andreas T1 - Tailoring the emission of stripe-array diode lasers with external cavities to enable nonlinear frequency conversion T1 - Maßgeschneiderte Emission aus Breitstreifenlasern mit externen Resonatoren zur Ermöglichung nichtlinearer Frequenzkonversion N2 - A huge number of applications require coherent radiation in the visible spectral range. Since diode lasers are very compact and efficient light sources, there exists a great interest to cover these applications with diode laser emission. Despite modern band gap engineering not all wavelengths can be accessed with diode laser radiation. Especially in the visible spectral range between 480 nm and 630 nm no emission from diode lasers is available, yet. Nonlinear frequency conversion of near-infrared radiation is a common way to generate coherent emission in the visible spectral range. However, radiation with extraordinary spatial temporal and spectral quality is required to pump frequency conversion. Broad area (BA) diode lasers are reliable high power light sources in the near-infrared spectral range. They belong to the most efficient coherent light sources with electro-optical efficiencies of more than 70%. Standard BA lasers are not suitable as pump lasers for frequency conversion because of their poor beam quality and spectral properties. For this purpose, tapered lasers and diode lasers with Bragg gratings are utilized. However, these new diode laser structures demand for additional manufacturing and assembling steps that makes their processing challenging and expensive. An alternative to BA diode lasers is the stripe-array architecture. The emitting area of a stripe-array diode laser is comparable to a BA device and the manufacturing of these arrays requires only one additional process step. Such a stripe-array consists of several narrow striped emitters realized with close proximity. Due to the overlap of the fields of neighboring emitters or the presence of leaky waves, a strong coupling between the emitters exists. As a consequence, the emission of such an array is characterized by a so called supermode. However, for the free running stripe-array mode competition between several supermodes occurs because of the lack of wavelength stabilization. This leads to power fluctuations, spectral instabilities and poor beam quality. Thus, it was necessary to study the emission properties of those stripe-arrays to find new concepts to realize an external synchronization of the emitters. The aim was to achieve stable longitudinal and transversal single mode operation with high output powers giving a brightness sufficient for efficient nonlinear frequency conversion. For this purpose a comprehensive analysis of the stripe-array devices was done here. The physical effects that are the origin of the emission characteristics were investigated theoretically and experimentally. In this context numerical models could be verified and extended. A good agreement between simulation and experiment was observed. One way to stabilize a specific supermode of an array is to operate it in an external cavity. Based on mathematical simulations and experimental work, it was possible to design novel external cavities to select a specific supermode and stabilize all emitters of the array at the same wavelength. This resulted in stable emission with 1 W output power, a narrow bandwidth in the range of 2 MHz and a very good beam quality with M²<1.5. This is a new level of brightness and brilliance compared to other BA and stripe-array diode laser systems. The emission from this external cavity diode laser (ECDL) satisfied the requirements for nonlinear frequency conversion. Furthermore, a huge improvement to existing concepts was made. In the next step newly available periodically poled crystals were used for second harmonic generation (SHG) in single pass setups. With the stripe-array ECDL as pump source, more than 140 mW of coherent radiation at 488 nm could be generated with a very high opto-optical conversion efficiency. The generated blue light had very good transversal and longitudinal properties and could be used to generate biphotons by parametric down-conversion. This was feasible because of the improvement made with the infrared stripe-array diode lasers due to the development of new physical concepts. N2 - Für eine Vielzahl von interessanten Anwendungen z.B. in den Lebenswissenschaften werden kohärente Strahlquellen im sichtbaren Spektralbereich benötigt. Diese Strahlquellen sollen sich durch eine hohe Effizienz (d.h. Sparsamkeit), Mobilität und eine hohe Güte des emittierten Lichtes auszeichnen. Im Idealfall passt die Lichtquelle in die Hosentasche und kann mit herkömmlichen Batterien betrieben werden. Diodenlaser sind solche kleinen und sehr effizienten Strahlquellen. Sie sind heutzutage allgegenwärtig, begegnen uns in CD-Playern, Laserdruckern oder an Supermarktkassen im täglichen Leben. Diodenlaser zeichnen sich durch ihren extrem hohen Wirkungsgrad aus, da hier elektrischer Strom direkt in Licht umgewandelt wird. Jedoch können bisher noch nicht alle Wellenlängen im sichtbaren Bereich mit diesen Lasern realisiert werden. Eine Möglichkeit, diesen Wellenlängenbereich über einen Umweg zu erreichen, ist Frequenzkonversion von infrarotem in sichtbares Licht mit sogenannten nichtlinearen optischen Kristallen. Dies ist im Prinzip auch mit Diodenlasern möglich, konnte bisher jedoch nur sehr ineffizient oder mit erheblichem Aufwand umgesetzt werden. Allerdings kann mit Hilfe von externen Resonatoren die Emission solcher Standard-Laserdioden maßgeblich beeinflusst und die Qualität des Lichtes erheblich verbessert werden. Hier setzt die Zielsetzung dieser Arbeit an: Das Licht von infraroten Hochleistungslaserdioden, sogenannten „Streifen-Arrays“, sollte durch einen externen Resonator stabilisiert und für die Frequenzverdopplung erschlossen werden. Diese Arrays bestehen aus mehreren dicht nebeneinander angeordneten Einzelemittern und zeichnen sich dadurch aus, dass eine Kopplung dieser Emitter von außen möglich ist. Im ersten Schritt sollte eine solche Synchronisation der Emitter erreicht werden. In einem zweiten Schritt soll das von außen beeinflusste Licht des Arrays mit einer hohen Effizienz in sichtbares (blaues) Licht konvertiert werden um den Wirkungsgrad der Diodenlaser voll auszunutzen. Dafür war es notwendig die Physik der Streifen-Arrays sorgfältig zu untersuchen. Es mussten Methoden entwickelt werden, durch die eine gezielte Beeinflussung der Emitter möglich ist, damit es zu einer globalen Kopplung und Synchronisation der Array Emitter kommt. Dafür wurden mit Hilfe von mathematischen Modellierungen und Experimenten verschiedene Resonatorkonzepte entwickelt und realisiert. Schlussendlich war es möglich, die Emissionseigenschaften der Arrays um mehrere Größenordnungen zu verbessern und sehr effizient kohärentes blaues Licht sehr hoher Güte zu erzeugen. In einem weiteren Experiment ist es zusätzlich gelungen nichtklassisches Licht bzw. Paarphotonen zu generieren, die ebenfalls interessant für die Lebenswissenschaften sind. KW - Diodenlaser KW - Frequenzkonversion KW - Kopplung KW - Modellierung KW - externe Resonatoren KW - diode-lasers KW - diode-laser-arrays KW - external cavities KW - modeling Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39653 SN - 978-3-86956-031-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Grimbs, Sergio T1 - Towards structure and dynamics of metabolic networks T1 - Struktur und Dynamik metabolischer Netzwerke N2 - This work presents mathematical and computational approaches to cover various aspects of metabolic network modelling, especially regarding the limited availability of detailed kinetic knowledge on reaction rates. It is shown that precise mathematical formulations of problems are needed i) to find appropriate and, if possible, efficient algorithms to solve them, and ii) to determine the quality of the found approximate solutions. Furthermore, some means are introduced to gain insights on dynamic properties of metabolic networks either directly from the network structure or by additionally incorporating steady-state information. Finally, an approach to identify key reactions in a metabolic networks is introduced, which helps to develop simple yet useful kinetic models. The rise of novel techniques renders genome sequencing increasingly fast and cheap. In the near future, this will allow to analyze biological networks not only for species but also for individuals. Hence, automatic reconstruction of metabolic networks provides itself as a means for evaluating this huge amount of experimental data. A mathematical formulation as an optimization problem is presented, taking into account existing knowledge and experimental data as well as the probabilistic predictions of various bioinformatical methods. The reconstructed networks are optimized for having large connected components of high accuracy, hence avoiding fragmentation into small isolated subnetworks. The usefulness of this formalism is exemplified on the reconstruction of the sucrose biosynthesis pathway in Chlamydomonas reinhardtii. The problem is shown to be computationally demanding and therefore necessitates efficient approximation algorithms. The problem of minimal nutrient requirements for genome-scale metabolic networks is analyzed. Given a metabolic network and a set of target metabolites, the inverse scope problem has as it objective determining a minimal set of metabolites that have to be provided in order to produce the target metabolites. These target metabolites might stem from experimental measurements and therefore are known to be produced by the metabolic network under study, or are given as the desired end-products of a biotechological application. The inverse scope problem is shown to be computationally hard to solve. However, I assume that the complexity strongly depends on the number of directed cycles within the metabolic network. This might guide the development of efficient approximation algorithms. Assuming mass-action kinetics, chemical reaction network theory (CRNT) allows for eliciting conclusions about multistability directly from the structure of metabolic networks. Although CRNT is based on mass-action kinetics originally, it is shown how to incorporate further reaction schemes by emulating molecular enzyme mechanisms. CRNT is used to compare several models of the Calvin cycle, which differ in size and level of abstraction. Definite results are obtained for small models, but the available set of theorems and algorithms provided by CRNT can not be applied to larger models due to the computational limitations of the currently available implementations of the provided algorithms. Given the stoichiometry of a metabolic network together with steady-state fluxes and concentrations, structural kinetic modelling allows to analyze the dynamic behavior of the metabolic network, even if the explicit rate equations are not known. In particular, this sampling approach is used to study the stabilizing effects of allosteric regulation in a model of human erythrocytes. Furthermore, the reactions of that model can be ranked according to their impact on stability of the steady state. The most important reactions in that respect are identified as hexokinase, phosphofructokinase and pyruvate kinase, which are known to be highly regulated and almost irreversible. Kinetic modelling approaches using standard rate equations are compared and evaluated against reference models for erythrocytes and hepatocytes. The results from this simplified kinetic models can simulate acceptably the temporal behavior for small changes around a given steady state, but fail to capture important characteristics for larger changes. The aforementioned approach to rank reactions according to their influence on stability is used to identify a small number of key reactions. These reactions are modelled in detail, including knowledge about allosteric regulation, while all other reactions were still described by simplified reaction rates. These so-called hybrid models can capture the characteristics of the reference models significantly better than the simplified models alone. The resulting hybrid models might serve as a good starting point for kinetic modelling of genome-scale metabolic networks, as they provide reasonable results in the absence of experimental data, regarding, for instance, allosteric regulations, for a vast majority of enzymatic reactions. N2 - In dieser Arbeit werden mathematische und informatische Ansätze zur Behandlung diverser Probleme im Zusammenhang mit der Modellierung metabolischer Netzwerke vorgestellt, insbesondere unter Berücksichtigung der eingeschränkten Verfügbarkeit detaillierter Enzymkinetiken. Es wird gezeigt, dass präzise mathematische Formulierungen der Probleme notwendig sind, um erstens angemessene und, falls möglich, effiziente Algorithmen zur Lösung zu entwickeln. Und zweitens, um die Güte der so gefundenen Lösungen zu bewerten. Des weiteren werden Methoden zur Analyse dynamischer Eigenschaften metabolischer Netzwerke eingeführt, welche entweder nur auf der Struktur der Netzwerke basieren oder zusätzlich noch Informationen über stationäre Zustände mit berücksichtigen. Außerdem wird eine Strategie zur Bestimmung von Schlüsselreaktionen eines Netzwerkes vorgestellt, welche die Entwicklung kinetischer Modelle vereinfacht. Der Erfolg neuer Technologien ermöglicht eine immer billigere und schnellere Sequenzierung des Genoms. Dies wird in naher Zukunft die Analyse biologischer Netzwerke nicht nur für Spezies, sondern auch für einzelne Individuen ermöglichen. Die automatische Rekonstruktion metabolischer Netzwerke ist bestens dafür geeignet, diese großen Datenmengen auszuwerten. Eine mathematische Formulierung der Rekonstruktion als Optimierungsproblem wird vorgestellt, die sowohl bereits vorhandenes Wissen als auch theoretische Vorhersagen verschiedenster bioinformatischer Methoden berücksichtigt. Die rekonstruierten Netzwerke sind hinsichtlich möglichst großer und plausibler Zusammenhangskomponenten hin optimiert, um fragmentierte und isolierte Teilnetzwerke zu vermeiden. Als Beispiel dient die Rekonstruktion der Saccharosesynthese in Chlamydomonas reinhardtii. Es wird gezeigt, dass das Problem sehr rechenintensiv ist und somit Approximationsalgorithmen erforderlich macht. Das 'inverse scope' Problem hat als Optimierungsziel, für ein gegebenes metabolisches Netzwerk die minimale Menge notwendiger Metabolite zu bestimmen, um eine ebenfalls gegebene Menge von gewünschten Zielmetaboliten zu produzieren. Diese Zielmetabolite können entweder durch experimentellen Messungen festgelegt werden, oder sie sind die gewünschten Endprodukte einer biotechnologischen Anwendung. Es wird gezeigt, dass das 'inverse scope' Problem rechenintensiv ist. Allerdings wird angenommen, dass die Berechnungskomplexität stark von der Anzahl gerichteter Zyklen innerhalb des metabolischen Netzwerkes abhängt. Dies könnte die Entwicklung effizienter Approximationsalgorithmen ermöglichen. Unter der Annahme von Massenwirkungskinetiken erlaubt es die 'chemical reaction network theory' (CRNT), anhand der Struktur metabolischer Netzwerke Rückschlüsse auf Multistabilität zu ziehen. Auch weitere Kinetiken können durch Modellierung von Enzymmechanismen mit berücksichtigt werden. CRNT wird zum Vergleich von mehreren Modellen des Calvinzyklus, welche sich in Größe und Abstraktionsniveau unterscheiden, verwendet. Obwohl für kleinere Modelle Ergebnisse erzielt werden, erlauben es die verfügbaren Theoreme und Algorithmen der CRNT nicht, Aussagen für größere Modelle zu machen, da die gegenwärtigen Implementierungen der Algorithmen an ihre Berechnungsgrenzen stoßen. Sind sowohl die Stoichiometrie eines metabolischen Netzwerkes, als auch die Metabolitkonzentrationen und Flüsse im stationären Zustand bekannt, so kann 'structural kinetic modelling' angewandt werden, um das dynamische Verhalten des Netzwerkes zu analysieren, selbst wenn die expliziten Ratengleichung unbekannt sind. Dieser Ansatz wird verwendet, um den stabilisierenden Einfluss allosterischer Regulation in menschlichen Erythrozyten zu untersuchen. Des weiteren werden die Reaktionen anhand ihrer Bedeutung hinsichtlich Stabilität im stationären Zustand angeordnet. Die wichtigsten Reaktionen bezüglich dieser Ordnung sind Hexokinase, Phosphofructokinase und Pyruvatkinase, welche bekanntermaßen stark reguliert und irreversibel sind. Kinetische Modelle, die auf generischen Ratengleichung beruhen, werden mit detaillierten Referenzmodellen für Erythrozyten und Hepatozyten verglichen. Die generischen Modelle simulieren das Verhalten nur in der Nähe eines gegebenen stationären Zustandes recht gut. Der zuvor erwähnte Ansatz, wichtige Reaktionen bezüglich Stabilität zu identifizieren, wird zur Bestimmung von Schlüsselreaktionen genutzt. Diese Schlüsselreaktionen werden im Detail modelliert, während für alle anderen Reaktionen weiterhin generische Ratengleichung verwendet werden. Die so entstandenen Hybridmodelle können das Verhalten des Referenzmodells signifikant besser beschreiben. Die Hybridmodelle können als Ausgangspunkt zur Erstellung genomweiter kinetischer Modelle dienen. KW - metabolische Netzwerke KW - Modellierung KW - Struktur KW - Dynamik KW - Bioinformatik KW - metabolic networks KW - modelling KW - structure KW - dynamics KW - bioinformatics Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-32397 ER - TY - THES A1 - Francke, Till T1 - Measurement and modelling of water and sediment fluxes in meso-scale dryland catchments T1 - Messung und Modellierung von Wasser- und Sedimentflüssen in mesoskaligen Trockeneinzugsgebieten N2 - Water shortage is a serious threat for many societies worldwide. In drylands, water management measures like the construction of reservoirs are affected by eroded sediments transported in the rivers. Thus, the capability of assessing water and sediment fluxes at the river basin scale is of vital importance to support management decisions and policy making. This subject was addressed by the DFG-funded SESAM-project (Sediment Export from large Semi-Arid catchments: Measurements and Modelling). As a part of this project, this thesis focuses on (1) the development and implementation of an erosion module for a meso-scale catchment model, (2) the development of upscaling and generalization methods for the parameterization of such model, (3) the execution of measurements to obtain data required for the modelling and (4) the application of the model to different study areas and its evaluation. The research was carried out in two meso-scale dryland catchments in NE-Spain: Ribera Salada (200 km²) and Isábena (450 km²). Adressing objective 1, WASA-SED, a spatially semi-distributed model for water and sediment transport at the meso-scale was developed. The model simulates runoff and erosion processes at the hillslope scale, transport processes of suspended and bedload fluxes in the river reaches, and retention and remobilisation processes of sediments in reservoirs. This thesis introduces the model concept, presents current model applications and discusses its capabilities and limitations. Modelling at larger scales faces the dilemma of describing relevant processes while maintaining a manageable demand for input data and computation time. WASA-SED addresses this challenge by employing an innovative catena-based upscaling approach: the landscape is represented by characteristic toposequences. For deriving these toposequences with regard to multiple attributes (eg. topography, soils, vegetation) the LUMP-algorithm (Landscape Unit Mapping Program) was developed and related to objective 2. It incorporates an algorithm to retrieve representative catenas and their attributes, based on a Digital Elevation Model and supplemental spatial data. These catenas are classified to provide the discretization for the WASA-SED model. For objective 3, water and sediment fluxes were monitored at the catchment outlet of the Isábena and some of its sub-catchments. For sediment yield estimation, the intermittent measurements of suspended sediment concentration (SSC) had to be interpolated. This thesis presents a comparison of traditional sediment rating curves (SRCs), generalized linear models (GLMs) and non-parametric regression using Random Forests (RF) and Quantile Regression Forests (QRF). The observed SSCs are highly variable and range over six orders of magnitude. For these data, traditional SRCs performed poorly, as did GLMs, despite including other relevant process variables (e.g. rainfall intensities, discharge characteristics). RF and QRF proved to be very robust and performed favourably for reproducing sediment dynamics. QRF additionally excels in providing estimates on the accuracy of the predictions. Subsequent analysis showed that most of the sediment was exported during intense storms of late summer. Later floods yielded successively less sediment. Comparing sediment generation to yield at the outlet suggested considerable storage effects within the river channel. Addressing objective 4, the WASA-SED model was parameterized for the two study areas in NE Spain and applied with different foci. For Ribera Salada, the uncalibrated model yielded reasonable results for runoff and sediment. It provided quantitative measures of the change in runoff and sediment yield for different land-uses. Additional land management scenarios were presented and compared to impacts caused by climate change projections. In contrast, the application for the Isábena focussed on exploring the full potential of the model's predictive capabilities. The calibrated model achieved an acceptable performance for the validation period in terms of water and sediment fluxes. The inadequate representation of the lower sub-catchments inflicted considerable reductions on model performance, while results for the headwater catchments showed good agreement despite stark contrasts in sediment yield. In summary, the application of WASA-SED to three catchments proved the model framework to be a practicable multi-scale approach. It successfully links the hillslope to the catchment scale and integrates the three components hillslope, river and reservoir in one model. Thus, it provides a feasible approach for tackling issues of water and sediment yield at the meso-scale. The crucial role of processes like transmission losses and sediment storage in the river has been identified. Further advances can be expected when the representation of connectivity of water and sediment fluxes (intra-hillslope, hillslope-river, intra-river) is refined and input data improves. N2 - In vielen Regionen der Erde stellt Wassermangel ein Problem für die menschliche Gesellschaft dar. Insbesondere in Trockengebieten werden jedoch Maßnahmen des Wassermanagements, wie die Wasserspeicherung in Stauseen, durch die im Fluss transportierten Sedimentfrachten negativ beeinflusst. Somit stellen eine adäquate Beurteilung von Wasser- und Sedimentflüssen eine wichtige Voraussetzung für Entscheidungen in Wassermanagement und -planung dar. Dieser Problematik widmete sich das SESAM-Projekt (Sediment Export from large Semi-Arid catchments: Measurements and Modelling). Im Rahmen dieses Projektes befasste sich diese Dissertation mit (1) der Entwicklung und Umsetzung eines Erosions-Moduls für ein Einzugsgebietsmodell auf der Meso-Skala, (2) der Entwicklung von Skalierungs- und Generalisierungsmethoden für die Parametrisierung eines solchen Modells, (3) der Durchführung von Messungen, um die notwendigen Daten für das Modell zu gewinnen und (4) die Anwendung des Modells für verschiedene Einzugsgebiete und seiner Bewertung. Die Studie umfasste zwei mesoskalige Trockeneinzugsgebiete in NO-Spanien: Ribera Salada (200 km²) und Isábena (450 km²). Im Hinblick auf Zielstellung 1 wurde WASA-SED, ein räumlich semi-distribuiertes Modell für Wasserflüsse und Sedimenttransport, entwickelt. Das Modell simuliert Abfluss- und Erosionsprozesse auf der Hangskala, den Transport von suspendierten und Geschiebesedimenten auf der Skala von Flussabschnitten sowie Rückhalt- und Remobilisierungsprozesse von Sedimenten in Stauseen. Die vorliegende Arbeit stellt das Modellkonzept und Modellanwendungen vor und beschreibt Fähigkeiten und Grenzen des Modells. Die Modellierung auf größeren Skalen beinhaltet das Dilemma, dass relevante Prozesse beschrieben werden müssen, gleichzeitig aber die Anforderungen an Eingabedaten und Rechenzeit realisierbar bleiben. In WASA-SED wird diesem durch die Anwendung eines innovativen Hangprofil-basierten Skalierungsansatzes Rechnung getragen, indem die Landschaft durch charakteristische Toposequenzen repräsentiert wird. Um derartige Toposequenzen hinsichtlich verschiedener Landschaftseigenschaften (z.B. Relief, Böden, Vegetation) abzuleiten, wurde in Bezug zur Zielstellung 2 der LUMP-Algorithmus (Landscape Unit Mapping Program) entwickelt. LUMP beinhaltet ein Verfahren zur Berechnung repräsentativer Hangprofile und ihrer Attribute aus einem digitalen Geländemodell und optionalen Zusatzdaten. Durch die Klassifikation dieser Hangprofile wird die Grundlage der räumlichen Diskretisierung des WASA-SED Modells bereitgestellt. Im Zusammenhang mit Zielstellung 3 wurden Abfluss und Sedimentkonzentration (SSC) am Auslass und in einigen Teileinzugsgebieten des Isábena-Einzugsgebietes gemessen. Um den Sedimentaustrag zu bestimmen, mussten die Einzelmessung der Sedimentkonzentration interpoliert werden. Diese Arbeit vergleicht die Eignung traditioneller Eichkurvenansätze (SRCs), Generalized Linear Models (GLMs) und der nichtparametrischen Regressionstechniken Random Forests (RF) und Quantile Regression Forests (QRF). Da die beobachteten SSC-Werte stark über sechs Größenordnungen variieren, erwiesen sich die traditionellen SRCs als unzureichend. Gleichfalls versagten GLMs trotz der Einbeziehung weiterer relevanter Prozessgrößen wie Niederschlagsintensitäten und Abflusscharakteristika. RF und QRF stellten sich hingegen als sehr robust und für die Rekonstruktion der Sedimentdynamik geeignet dar. QRF liefert darüber hinaus auch Informationen zur Genauigkeit dieser Schätzungen. Die darauf aufbauende Analyse ergab, dass der Großteil der Sedimentfracht während der Starkregenereignisse des Spätsommers transportiert wurde. Spätere Niederschlagsereignisse erzeugten deutlich geringeren Austrag. Durch den Vergleich von Sedimentfrachten im Oberlauf mit Austragsmengen am Gebietsauslass konnte die Bedeutung der Sedimentspeicherung im Flussbett identifiziert werden. Zielstellung 4 wurde bearbeitet, indem das WASA-SED-Modell für zwei Untersuchungsgebiete in NO-Spanien unter unterschiedlichen Gesichtspunkten angewendet wurde. Für das Ribera-Salada-Einzugsgebiet lieferte das unkalibrierte Modell plausible Ergebnisse hinsichtlich der Wasser- und Sedimentflüsse. Damit war es möglich, die potentiellen Änderungen dieser Größen durch verschiedene Landnutzungsszenarien zu quantifizieren. Diese wurden den prognostizierten Veränderungen, die durch Klimaänderungen hervorgerufen würden, gegenübergestellt. Im Gegensatz dazu konzentrierte sich die Anwendung im Isábena-Einzugsgebiet auf die Untersuchung der bestmöglichen Modellanpassung. Im Validierungszeitraum ergab sich eine befriedigende Modellgüte für Wasser- und Sedimentflüsse. Diese Gesamtgüte wurde maßgeblich durch die unzureichende Abbildung der Unterliegergebiete beeinflusst, wohingegen die Gebiete des Oberlaufs, trotz ihrer stark kontrastierenden Sedimentausträge, gut dargestellt wurden. Die Anwendung des WASA-SED-Modells auf drei verschiedene Untersuchungsgebiete bestätigt die generelle Eignung des Modellkonzepts als einen sinnvollen multiskaligen Ansatz, der in einem Modell effektiv die Hangskala mit der Einzugsgebietsskala sowie den Einfluss von Flüssen und Stauseen vereint. Er stellt somit eine mögliche Grundlage für die Bearbeitung von wasser- und sedimentbezogenen Fragestellungen auf der Meso-Skala dar. Die besondere Bedeutung der Prozesse der Sickerverluste und Sedimentspeicherung im Gerinne konnten herausgearbeitet werden. Mögliche Verbesserungen betreffen die Berücksichtigung der Konnektivität von Wasser- und Sedimentflüssen (auf dem Hang, zwischen Hang und Fluss, innerhalb des Flusses) und die Qualität der Eingangsdaten für das Modell. KW - Erosion KW - Sediment KW - Modellierung KW - Spanien KW - Brasilien KW - erosion KW - sediment KW - modelling KW - Spain KW - Brazil Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-31525 ER -