TY - THES A1 - Jehannin, Marie T1 - About the role of physico-chemical properties and hydrodynamics on the progress of a precipitation reaction T1 - Über die Rolle physikalisch-chemischer Eigenschaften und Hydrodynamiken auf den Fortschritt einer Fällungsreaktion BT - the case of cerium oxalate particles produced during coalescence of drops BT - Ceroxalat-Partikel, entstanden während der Koaleszenz von Tropfen N2 - The size and morphology control of precipitated solid particles is a major economic issue for numerous industries. For instance, it is interesting for the nuclear industry, concerning the recovery of radioactive species from used nuclear fuel. The precipitates features, which are a key parameter from the post-precipitate processing, depend on the process local mixing conditions. So far, the relationship between precipitation features and hydrodynamic conditions have not been investigated. In this study, a new experimental configuration consisting of coalescing drops is set to investigate the link between reactive crystallization and hydrodynamics. Two configurations of aqueous drops are examined. The first one corresponds to high contact angle drops (>90°) in oil, as a model system for flowing drops, the second one correspond to sessile drops in air with low contact angle (<25°). In both cases, one reactive is dissolved in each drop, namely oxalic acid and cerium nitrate. When both drops get into contact, they may coalesce; the dissolved species mix and react to produce insoluble cerium oxalate. The precipitates features and effect on hydrodynamics are investigated depending on the solvent. In the case of sessile drops in air, the surface tension difference between the drops generates a gradient which induces a Marangoni flow from the low surface tension drop over the high surface tension drop. By setting the surface tension difference between the two drops and thus the Marangoni flow, the hydrodynamics conditions during the drop coalescence could be modified. Diols/water mixtures are used as solvent, in order to fix the surface tension difference between the liquids of both drops regardless from the reactant concentration. More precisely, the used diols, 1,2-propanediol and 1,3-propanediol, are isomer with identical density and close viscosity. By keeping the water volume fraction constant and playing with the 1,2-propanediol and 1,3-propanediol volume fractions of the solvents, the mixtures surface tensions differ up to 10 mN/m for identical/constant reactant concentration, density and viscosity. 3 precipitation behaviors were identified for the coalescence of water/diols/recatants drops depending on the oxalic excess. The corresponding precipitates patterns are visualized by optical microscopy and the precipitates are characterized by confocal microscopy SEM, XRD and SAXS measurements. In the intermediate oxalic excess regime, formation of periodic patterns can be observed. These patterns consist in alternating cerium oxalate precipitates with distinct morphologies, namely needles and “microflowers”. Such periodic fringes can be explained by a feedback mechanism between convection, reaction and the diffusion. N2 - Die Kontrolle der Morphologie und Größe fester durch Fällung erzeugter Partikel ist eine wichtige Herausforderung in Industrie und Forschung. Insbesondere gilt dies für die Wiederaufbereitung verbrauchter Brennstäber in der Atomindustrie. Die Eigenschaften der Ausfällungen hängen von den Mischbedingungen der Flüssigkeiten in den Prozessen ab. Dennoch sind die Beziehungen zwischen den physischen Charakteristiken der erzeugten Partikeln und den hydrodynamischen Bedingungen ungewiss. In dieser Arbeit werden Zwei-Tropfen-Koalezenz-Experiment genutzt, um die Verbindungen zwischen Hydrodynamik und Fällungsreaktion besser zu verstehen. Zwei Konfigurationen von ruhenden wässrigen Tropfen wurden untersucht: Zum einen Tropfen mit hohem Kontaktwinkel (> 90°) in Öl und zum anderen Tropfen mit kleinem Kontaktwinkel (< 25°) in Luft. In beiden Fällen wurde Oxalsäure und Ceriumnitrat jeweils in einem Tropfen gelöst. Wenn beide Tropfen einander in Kontakt treten, können sie sich vereinigen. Dabei mischen sich die Reagenzien und erzeugen Ceriumoxalat. In Abhängigkeit von Lösungsmitteln werden die Eigenschaften der Fällung sowie ihr Einfluss auf die Hydrodynamik untersucht. In Experimenten Tropfen in Luft ist es außerdem möglich, mittels Wasser/Diol-Mischungen den Oberflächenspannungsgradienten zwischen beiden Tropfenflüssigkeiten zu ändern. Damit ist es möglich den resultierenden Marangoni-Fluss zu kontrollieren. So werden die hydrodynamischen Bedingungen unabhängig von dem Oxalsäureüberschuss verwirklicht. In diesem Fall werden drei Fällungsverhalten abhängig er Oxalsäure-Konzentration beobachtet. Das Zwischenverhalten zeigt überraschende periodische Strukturen, welche verschiedenen Morphologien bilden, nämlich Nägeln und „Microflower“. Die Strukturen wurden über Optische Mikroskopie Identifiziert und charakterisiert mit Hilfe von Konfokaler Mikroskopie, SEM, XRD und SAXS. Die Entstehung solcher Strukturen könnte durch eine Konvektion- Diffusion- Reaktion-Rückkopplung erklärt werden. N2 - Réussir à contrôler la morphologie et la taille de particules solides obtenues par précipitation est un enjeu industriel majeur. C’est notamment le cas dans l’industrie nucléaire pour le recyclage du combustible usé. Les caractéristiques des précipités sont liées aux conditions de mélange des phases liquides dans les procédés. Les corrélations entre les paramètres physiques des particules obtenues et les conditions hydrodynamiques n’ont pas été examinées jusqu’à présent. Dans cette étude, des systèmes expérimentaux originaux, basés sur la coalescence de deux gouttes, sont utilisés afin de mieux comprendre les liens entre hydrodynamique et réaction de précipitation. Deux configurations de gouttes aqueuses ont été investiguées, la première consiste en deux goutes posées à fort angle de contact (>90°) dans l’huile, il s’agit d’un système modèle pour les gouttes en émulsion, la second configuration correspond à deux gouttes posées à faible angle de contact (>25°) dans l’air. Dans chaque cas, une espèce réactive est dissoute dans chaque goutte, à savoir de l’acide oxalique ou du nitrate de cérium dans la seconde. Lorsque les deux gouttes se touchent, elles peuvent éventuellement coalescer, alors les espèces chimiques se mélangent et réagissent pour produire un précipité d’oxalate de cérium. Les caractéristiques de ce précipité et ses effets sur l’hydrodynamique sont examinés en fonction du solvant utilisé. De plus, dans le cas des gouttes posées sur une surface de silice dans l’air, une différence de tension de surface entre deux gouttes crée un gradient qui génère un flux de Marangoni dirigé de la goutte de faible tension de surface au-dessus de la goutte de forte tension de surface. En jouant sur la différence de tension de surface entre les deux gouttes, et ainsi sur le flux de Marangoni, il est possible de modifier les conditions hydrodynamiques lors de la coalescence des gouttes. Des mélanges eau/diols ont été utilisés comme solvant afin de pouvoir modifier la différence de tension de surface entre les liquides des deux gouttes indépendamment de leur concentration en réactif. Les diols utilisés, le 1,2-propanediol et le 1,3-propanediol sont des isomères, ils sont la même densité, des viscosités semblables mais des tensions de surface différentes. En fixant la fraction volumique d’eau dans le solvant, et en jouant sur les fractions volumiques de chaque diols, il est possible de contrôler la tension de surface des mélanges sur une gamme de 10 mN/m pour une concentration en réactifs donnée, et en conservant la densité et viscosité des solvants. Trois régimes de précipitation ont été identifiés dans le cas de la coalescence de gouttes d’eau/diols/réactifs en fonction de l’excès oxalique. Les motifs de précipitation en découlant ont été imagés par microscopie optique et les différents précipités ont été caractérisés à l’aide de microscopie confocale, MEB, DRX et SAXS. Le régime intermédiaire présente des motifs périodiques surprenants. Ces motifs correspondent à des domaines nettement délimités d’oxalate de cérium de différentes morphologies, à savoir des aiguilles et des « microflowers ». L’obtention de tels motifs peut s’expliquer par un mécanisme de rétroaction entre convection, réaction et diffusion. KW - Marangoni flow KW - coalescence KW - periodic pattern KW - oxalic precipitation KW - drop KW - Marangoni-Fluss KW - Koaleszenz KW - Tropfen KW - Fällungsreaktion KW - periodisches Muster KW - Oxalat-Fällung KW - flux de Marangoni KW - coalescence KW - gouttes KW - précipitation KW - motif périodique KW - précipitation oxalique Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88364 ER - TY - THES A1 - Poltrock, Silvana T1 - About the relation between implicit Theory of Mind & the comprehension of complement sentences T1 - Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen N2 - Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance. N2 - Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert. KW - Theory of Mind KW - Komplementsatzverstehen KW - linguistische Determinismushypothese KW - implizit KW - Blickbewegungsmessung KW - theory of mind KW - comprehension of complement sentences KW - linguistic determinism KW - implicit KW - eye tracking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52293 ER - TY - THES A1 - Katzmann, Maximilian T1 - About the analysis of algorithms on networks with underlying hyperbolic geometry T1 - Über die Analyse von Algorithmen auf Netzwerken mit zugrundeliegender hyperbolischer Geometrie N2 - Many complex systems that we encounter in the world can be formalized using networks. Consequently, they have been in the focus of computer science for decades, where algorithms are developed to understand and utilize these systems. Surprisingly, our theoretical understanding of these algorithms and their behavior in practice often diverge significantly. In fact, they tend to perform much better on real-world networks than one would expect when considering the theoretical worst-case bounds. One way of capturing this discrepancy is the average-case analysis, where the idea is to acknowledge the differences between practical and worst-case instances by focusing on networks whose properties match those of real graphs. Recent observations indicate that good representations of real-world networks are obtained by assuming that a network has an underlying hyperbolic geometry. In this thesis, we demonstrate that the connection between networks and hyperbolic space can be utilized as a powerful tool for average-case analysis. To this end, we first introduce strongly hyperbolic unit disk graphs and identify the famous hyperbolic random graph model as a special case of them. We then consider four problems where recent empirical results highlight a gap between theory and practice and use hyperbolic graph models to explain these phenomena theoretically. First, we develop a routing scheme, used to forward information in a network, and analyze its efficiency on strongly hyperbolic unit disk graphs. For the special case of hyperbolic random graphs, our algorithm beats existing performance lower bounds. Afterwards, we use the hyperbolic random graph model to theoretically explain empirical observations about the performance of the bidirectional breadth-first search. Finally, we develop algorithms for computing optimal and nearly optimal vertex covers (problems known to be NP-hard) and show that, on hyperbolic random graphs, they run in polynomial and quasi-linear time, respectively. Our theoretical analyses reveal interesting properties of hyperbolic random graphs and our empirical studies present evidence that these properties, as well as our algorithmic improvements translate back into practice. N2 - Viele komplexe Systeme mit denen wir tagtäglich zu tun haben, können mit Hilfe von Netzwerken beschrieben werden, welche daher schon jahrzehntelang im Fokus der Informatik stehen. Dort werden Algorithmen entwickelt, um diese Systeme besser verstehen und nutzen zu können. Überraschenderweise unterscheidet sich unsere theoretische Vorstellung dieser Algorithmen jedoch oft immens von derem praktischen Verhalten. Tatsächlich neigen sie dazu auf echten Netzwerken viel effizienter zu sein, als man im schlimmsten Fall erwarten würde. Eine Möglichkeit diese Diskrepanz zu erfassen ist die Average-Case Analyse bei der man die Unterschiede zwischen echten Instanzen und dem schlimmsten Fall ausnutzt, indem ausschließlich Netzwerke betrachtet werden, deren Eigenschaften die von echten Graphen gut abbilden. Jüngste Beobachtungen zeigen, dass gute Abbildungen entstehen, wenn man annimmt, dass einem Netzwerk eine hyperbolische Geometrie zugrunde liegt. In dieser Arbeit wird demonstriert, dass hyperbolische Netzwerke als mächtiges Werkzeug der Average-Case Analyse dienen können. Dazu werden stark-hyperbolische Unit-Disk-Graphen eingeführt und die bekannten hyperbolischen Zufallsgraphen als ein Sonderfall dieser identifiziert. Anschließend werden auf diesen Modellen vier Probleme analysiert, um Resultate vorangegangener Experimente theoretisch zu erklären, die eine Diskrepanz zwischen Theorie und Praxis aufzeigten. Zuerst wird ein Routing Schema zum Transport von Nachrichten entwickelt und dessen Effizienz auf stark-hyperbolischen Unit-Disk-Graphen untersucht. Allgemeingültige Effizienzschranken können so auf hyperbolischen Zufallsgraphen unterboten werden. Anschließend wird das hyperbolische Zufallsgraphenmodell verwendet, um praktische Beobachtungen der bidirektionalen Breitensuche theoretisch zu erklären und es werden Algorithmen entwickelt, um optimale und nahezu optimale Knotenüberdeckungen zu berechnen (NP-schwer), deren Laufzeit auf diesen Graphen jeweils polynomiell und quasi-linear ist. In den Analysen werden neue Eigenschaften von hyperbolischen Zufallsgraphen aufgedeckt und empirisch gezeigt, dass sich diese sowie die algorithmischen Verbesserungen auch auf echten Netzwerken nachweisen lassen. KW - graph theory KW - hyperbolic geometry KW - average-case analysis KW - Average-Case Analyse KW - Graphentheorie KW - hyperbolische Geometrie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582965 ER - TY - THES A1 - Neigenfind, Jost T1 - About a refined algorithm for the computation of absolute concentration robustness Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Klisch, Anja T1 - Ableitung von Blattflächenindex und Bedeckungsgrad aus Fernerkundungsdaten für das Erosionsmodell EROSION 3D N2 - In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren. N2 - Soil erosion models become increasingly more complex and contain physically based components, resulting in changing requirements for their input parameters. The spatial and temporal dynamics of erosions forcing parameters thus produce high requirements on data availability (costs and manpower). Due to this fact, the use of complex erosion models for extensive regions is strongly limited by the high in-situ expense. Moreover, conventional measurement procedures provide parameters at certain points, while remote sensing is a two-dimensional retrieval method. This thesis demonstrates, how satellite data can be used as a cost-effective supplementation or alternative to conventional measurement procedures. Leaf area index (LAI) and soil cover percentage are examplarily derived for the EROSION 3D physically based soil erosion model. The main objective of this study is to summarise existing retrieval methods in order to operationally provide such paramaters for soil erosion models or for process models in general. The methods are applied to a catchment in the loess region in Saxony (Germany), that predominantly is agriculturally used. For comparison, simulations based on conventionally estimated parameters for 29 rainstorm events are available [MICHAEL et al. 2000]. The remote sensing parameters are derived from Landsat 5 TM data on the following dates: 13.03.1999, 30.04.1999, 19.07.1999. To get temporally continuous data for all events, they are interpolated between the acquisition dates based on the LAI development. Therefore, LAI is firstly calculated for all occurring crops by means of the semi-empirical models of CLEVERS [1986] and BARET & GUYOT [1991]. The coefficients appropriated to these models are taken from literature. Furthermore, a method is investigated that enables coefficient estimation for the Clevers model from Landsat data combined with a simplified growth model. Next, soil cover percentage is derived from LAI after ROSS [1981]. The LAI interpolation is performed by the simplified crop growth model from the SWIM hydrological model [Krysanova et al. 1999]. It has to be mentioned, that plant residue remains unconsidered by the used methods. In comparison to conventional measurement procedures, these methods supply a differentiated mapping of the spatial variability and temporal behaviour regarding the vegetation parameters. The simulations with EROSION 3D are carried out for the remotely sensed soil cover percentages, that are retrieved in two ways. Soil cover is directly derived from the remote sensing data for each pixel at the acquisition dates as well as estimated by means of the interpolation for each field on all rainstorm events. In comparison to conventionally determined soil cover, both methods provide an improved spatial allocation of this parameter and thus, a spatial reallocation of erosion and deposition areas. The used Landsat Data provide an adequate spatial resolution suitable for the spatial heterogeneity given in the test area (e. g. field size). These results show that satellite based remote sensing can be reasonably used within the scope of these investigations. In the future, operational retrieval of such remotely sensed parameters necessitates the validation of the proposed methods and in general the automation of involved sub-processes to the greatest possible extent KW - Fernerkundung KW - Blattflächenindex KW - Bedeckungsgrad KW - Bodenerosion KW - EROSION 3D KW - remote sensing KW - leaf area index KW - soil cover percentage KW - soil erosion KW - EROSION 3D Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001455 ER - TY - THES A1 - Schwandt, Daniel T1 - Abflußentwicklung in Teileinzugsgebieten des Rheins : Simulationen für den Ist-Zustand und für Klimaszenarien T1 - Development of runoff in subcatchments of the River Rhine : simulations of the current state and for climate change scenarios N2 - Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden. N2 - This thesis 'Development of runoff in subcatchments of the River Rhine - simulations of the current state and for climate change scenarios' investigates the impacts of possible future climate changes on runoff and runoff regime in selected subcatchments of the River Rhine. The regional climate in the selected subcatchments Mosel (up to gauge Cochem), Sieg (gauge Menden 1) and Main (gauge Kemmern) is affected by the middle mountain ranges.In a first step, important model processes are parameterized according to catchment characteristics. A representation of the regional hydrology is then produced by using the hydrological model HBV-D. Based on time series of daily measurements (temperature, precipitation) at stations within the catchment, this representation can be used to realistically simulate time series of runoff and discharge. In all examined areas, the quality of simulations of the calibration and validation periods for the current state (standard period of measurements 01/01/1961-12/31/1999) can be regarded as good to excellent. To aid the catchment-specific, extensive and time-consuming data processing, a working environment for the hydrological model HBV-D has been developed. It is based on program extensions of the geographical information system ArcView and further programs. The working environment HBV-Params contains a graphical interface that gives both experienced hydrologists and students full control and enables them to flexibly derive parameter values and edit parameter and control files. In contrast to previous versions with only rudimentary working environments, HBV-D can therefore be utilized for research as well as for educational purposes. In a second step, the current states of areal precipitation, areal temperature and simulated mean discharge (MQ) are compared to the corresponding states for two scenarios of future climate changes (100 years later, 2061-2099). These scenarios are based on simulated global circulations of one model run for each of two global circulation models (GCM). These global circulations are regionalized (downscaled) using a statistical approach into scenario time series of daily values (temperature, precipitation - input for the hydrological model) at control stations within the individual catchments. For the second half of the 21st century, both regionalized climate change scenarios indicate increases in the mean annual areal temperature and mean annual sum of precipitation, along with a high variability of the latter. The seasonal (monthly) changes in temperature, precipitation and mean discharge between scenario state (2061-2099) and current state indicate increases in temperature (higher in summer than in winter) as well as a general increase in precipitation sums (strong fluctuations between individual months). In the hydrological simulations for all investigated catchments, this results in considerably higher mean discharges from November to March and small increases in mean discharge for the other months. The magnitude of the increases in discharge depends on the individual climate change scenario, one showing higher increases than the other during the summer half-year and vice versa for the winter half-year. The main reason for the simulated strong increase in mean discharge during winter half-year is, in spite of higher temperatures, the still relatively low evapotranspiration which allows higher precipitation to be directly transformed into higher discharges. The comparison of the investigated catchments shows decreasing amounts of changes in the sum of precipitation from West to East in individual months. This indicates the importance of continentality under changed climatic conditions in Southwest Germany. For the modification of measured time series (temperature, precipitation), which can be easily converted as synthetic scenarios into simulated hydrological results, amounts of change are derived from regionalized (downscaled) climate change scenarios. The derivation of synthetic scenarios directly from GCM output at individual GCM gridpoints yielded unsatisfactory results. Only the future itself can show whether the timing and amount of changes in temperature and precipitation used in (synthetic) climate change scenarios come close to reality. An assessment of possible developments in runoff regime and specifically mean discharge under possible changed climatic conditions in the investigated catchments is already feasible today. Simulations based on scenarios are one way to establish unknown future boundary conditions for the estimation of regional impacts of possible changes of the climate system. Nevertheless, all types of modeling and simulation of natural systems are linked with uncertainties. Rather large uncertainties persist regarding the future development of the socio-economic system and the complexity of the climate system and earth system. Furthermore, besides data uncertainties associated with the measurement of hydro-meteorological values, uncertainties associated with individual components of the model chain emission scenarios/gas cycle model - GCM/regionalization - hydrological model, which form a cascade of uncertainty, have a great influence on the trustworthiness of the simulation results (which are understood as one shown value within a range of results). In the young field of climate impact research the use of (1) robust hydrological models that adequately describe temperature-dependent processes,(2) long time series (at least 30 years long) of measurements, (3) concurrent comparisons of climate change scenarios, based on different GCMs (and, if possible, different emission scenarios)should be considered for reasons of scientific thoroughness and to improve comparability of regional impact studies. KW - Abflußentwicklung KW - hydrologische Modellierung KW - HBV-D KW - Klimaszenarien KW - regionale Auswirkungen von Klimaänderungen KW - synthetische Klimaszenarien KW - Kaska KW - runoff development KW - hydrological modeling KW - HBV-D KW - climate change scenarios KW - regional climate change impacts KW - synthetic climate change scenarios KW - casca Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001001 ER - TY - THES A1 - Oppenheim, Robert T1 - Abfindungsklauseln in Personengesellschaftverträgen : Plädoyer für eine Verhandlungsklausel T2 - Nomos Universitätsschriften : Recht Y1 - 2011 SN - 978-3-8329-6509-9 VL - 728 PB - Nomos CY - Baden-Baden ER - TY - THES A1 - Schneider, Heiko T1 - Abbau von Flavonoiden durch Mikroorganismen des Gastrointestinaltrakts Y1 - 1999 SN - 3-89722-330-9 PB - Logos-Verl. CY - Berlin ER - TY - THES A1 - Kroßner, Thomas T1 - Ab-initio-Untersuchung der Potentialhyperflächen und des spektroskopischen Verhaltens des Fluoroformylradikals FCO Y1 - 1995 ER - TY - THES A1 - Mavrothalassiti, Eleni T1 - A.thaliana root and shoot single-cell transcriptomes and detection of mobile transcripts Y1 - 2020 ER - TY - THES A1 - Hasnat, Muhammad Abrar T1 - A-Type Carrier Proteins are involved in [4Fe-4S] Cluster insertion into the Radical S-adenosylmethionine (SAM) Protein MoaA and other molybdoenzymes N2 - Iron-sulfur clusters are essential enzyme cofactors. The most common and stable clusters are [2Fe-2S] and [4Fe-4S] that are found in nature. They are involved in crucial biological processes like respiration, gene regulation, protein translation, replication and DNA repair in prokaryotes and eukaryotes. In Escherichia coli, Fe-S clusters are essential for molybdenum cofactor (Moco) biosynthesis, which is a ubiquitous and highly conserved pathway. The first step of Moco biosynthesis is catalyzed by the MoaA protein to produce cyclic pyranopterin monophosphate (cPMP) from 5’GTP. MoaA is a [4Fe-4S] cluster containing radical S-adenosyl-L-methionine (SAM) enzyme. The focus of this study was to investigate Fe-S cluster insertion into MoaA under nitrate and TMAO respiratory conditions using E. coli as a model organism. Nitrate and TMAO respiration usually occur under anaerobic conditions, where oxygen is depleted. Under these conditions, E. coli uses nitrate and TMAO as terminal electron. Previous studies revealed that Fe-S cluster insertion is performed by Fe-S cluster carrier proteins. In E. coli, these proteins are known as A-type carrier proteins (ATC) by phylogenomic and genetic studies. So far, three of them have been characterized in detail in E. coli, namely IscA, SufA, and ErpA. This study shows that ErpA and IscA are involved in Fe-S cluster insertion into MoaA under nitrate and TMAO respiratory conditions. ErpA and IscA can partially replace each other in their role to provide [4Fe-4S] clusters for MoaA. SufA is not able to replace the functions of IscA or ErpA under nitrate respiratory conditions. Nitrate reductase is a molybdoenzyme that coordinates Moco and Fe-S clusters. Under nitrate respiratory conditions, the expression of nitrate reductase is significantly increased in E. coli. Nitrate reductase is encoded in narGHJI genes, the expression of which is regulated by the transcriptional regulator, fumarate and nitrate reduction (FNR). The activation of FNR under conditions of nitrate respiration requires one [4Fe-4S] cluster. In this part of the study, we analyzed the insertion of Fe-S cluster into FNR for the expression of narGHJI genes in E. coli. The results indicate that ErpA is essential for the FNR-dependent expression of the narGHJI genes, a role that can be replaced partially by IscA and SufA when they are produced sufficiently under the conditions tested. This observation suggests that ErpA is indirectly regulating nitrate reductase expression via inserting Fe-S clusters into FNR. Most molybdoenzymes are complex multi-subunit and multi-cofactor-containing enzymes that coordinate Fe-S clusters, which are functioning as electron transfer chains for catalysis. In E. coli, periplasmic aldehyde oxidoreductase (PaoAC) is a heterotrimeric molybdoenzyme that consists of flavin, two [2Fe-2S], one [4Fe-4S] cluster and Moco. In the last part of this study, we investigated the insertion of Fe-S clusters into E. coli periplasmic aldehyde oxidoreductase (PaoAC). The results show that SufA and ErpA are involved in inserting [4Fe-4S] and [2Fe-2S] clusters into PaoABC, respectively under aerobic respiratory conditions. KW - enzyme KW - gene KW - iron sulfur clusters KW - Enzyme KW - Gen KW - Eisen-Schwefel-Cluster Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-530791 ER - TY - THES A1 - Amaechi, Mary Chimaobi T1 - A'-movement dependencies and their reflexes in Igbo N2 - In this thesis, I examine different A-bar movement dependencies in Igbo, a Benue-Congo language spoken in southern Nigeria. Movement dependencies are found in constructions where an element is moved to the left edge of the clause to express information-structural categories such as in questions, relativization and focus. I show that these constructions in Igbo are very uniform from a syntactic point of view. The constructions are built on two basic fronting operations: relativization and focus movement, and are biclausal. I further investigate several morphophonological effects that are found in these A-bar constructions. I propose that these effects are reflexes of movement that are triggered when an element is moved overtly in relativization or focus. This proposal helps to explain the tone patterns that have previously been assumed to be a property of relative clauses. The thesis adds to the growing body of tonal reflexes of A-bar movement reported for a few African languages. The thesis also provides an insight into the complementizer domain (C-domain) of Igbo. N2 - In dieser Dissertation untersuche ich verschiedene syntaktische A-quer-Bewegungsabhängigkeiten in Igbo, einer Benue-Kongo-Sprache, die im Süden Nigerias gesprochen wird. Bewegungsabhängigkeiten finden sich in Konstruktionen, in denen ein Element an den linken Satzrand bewegt wird, um informationsstrukturelle Kategorien auszudrücken, etwa in Fragen, Relativsatzbildung und Fokussierung. Ich zeige, dass diese Konstruktionen in Igbo in Hinblick auf die Syntax sehr einheitlich sind. Die Konstruktionen bauen auf zwei grundlegenden Voranstellungsoperationen auf – Relativierung und Fokusbewegung – und sind biklausal. Außerdem untersuche ich verschiedene morphophonologische Effekte, die in diesen A-quer-Konstruktionen vorkommen. Ich schlage vor, dass die Effekte Ausdruck von Bewegung sind und dadurch ausgelöst werden, dass ein Element zum Zweck der Relativsatzbildung oder Fokussierung bewegt wird. Die Dissertation liefert einen weiteren Beleg für tonale Effekte von A-quer-Bewegung, die bereits für einige afrikanische Sprachen berichtet wurden. Die Arbeit gibt auch Aufschluss über die Komplementierer-Domäne (C-domain) in Igbo. T2 - A'-Bewegungsabhängigkeiten und ihre Reflexe im Igbo KW - A-bar movement KW - clefts KW - focus KW - relativization KW - Igbo KW - A-quer-Bewegung KW - Spaltsätze KW - Fokus KW - Relativsätze KW - Igbo Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-471524 ER - TY - THES A1 - Kneis, David T1 - A water quality model for shallow river-lake systems and its application in river basin management T1 - Ein Wassergütemodell für flache See-Fluss-Systeme und dessen Anwendung in der Einzugsgebietsbewirtschaftung N2 - This work documents the development and application of a new model for simulating mass transport and turnover in rivers and shallow lakes. The simulation tool called 'TRAM' is intended to complement mesoscale eco-hydrological catchment models in studies on river basin management. TRAM aims at describing the water quality of individual water bodies, using problem- and scale-adequate approaches for representing their hydrological and ecological characteristics. The need for such flexible water quality analysis and prediction tools is expected to further increase during the implementation of the European Water Framework Directive (WFD) as well as in the context of climate change research. The developed simulation tool consists of a transport and a reaction module with the latter being highly flexible with respect to the description of turnover processes in the aquatic environment. Therefore, simulation approaches of different complexity can easily be tested and model formulations can be chosen in consideration of the problem at hand, knowledge of process functioning, and data availability. Consequently, TRAM is suitable for both heavily simplified engineering applications as well as scientific ecosystem studies involving a large number of state variables, interactions, and boundary conditions. TRAM can easily be linked to catchment models off-line and it requires the use of external hydrodynamic simulation software. Parametrization of the model and visualization of simulation results are facilitated by the use of geographical information systems as well as specific pre- and post-processors. TRAM has been developed within the research project 'Management Options for the Havel River Basin' funded by the German Ministry of Education and Research. The project focused on the analysis of different options for reducing the nutrient load of surface waters. It was intended to support the implementation of the WFD in the lowland catchment of the Havel River located in North-East Germany. Within the above-mentioned study TRAM was applied with two goals in mind. In a first step, the model was used for identifying the magnitude as well as spatial and temporal patterns of nitrogen retention and sediment phosphorus release in a 100~km stretch of the highly eutrophic Lower Havel River. From the system analysis, strongly simplified conceptual approaches for modeling N-retention and P-remobilization in the studied river-lake system were obtained. In a second step, the impact of reduced external nutrient loading on the nitrogen and phosphorus concentrations of the Havel River was simulated (scenario analysis) taking into account internal retention/release. The boundary conditions for the scenario analysis such as runoff and nutrient emissions from river basins were computed by project partners using the catchment models SWIM and ArcEGMO-Urban. Based on the output of TRAM, the considered options of emission control could finally be evaluated using a site-specific assessment scale which is compatible with the requirements of the WFD. Uncertainties in the model predictions were also examined. According to simulation results, the target of the WFD -- with respect to total phosphorus concentrations in the Lower Havel River -- could be achieved in the medium-term, if the full potential for reducing point and non-point emissions was tapped. Furthermore, model results suggest that internal phosphorus loading will ease off noticeably until 2015 due to a declining pool of sedimentary mobile phosphate. Mass balance calculations revealed that the lakes of the Lower Havel River are an important nitrogen sink. This natural retention effect contributes significantly to the efforts aimed at reducing the river's nitrogen load. If a sustainable improvement of the river system's water quality is to be achieved, enhanced measures to further reduce the immissions of both phosphorus and nitrogen are required. N2 - Die vorliegende Arbeit dokumentiert Konzept und Anwendung eines Modells zur Simulation von Stofftransport und -umsatz in Flüssen und Flachseen. Das Simulationswerkzeug TRAM wurde als Ergänzung zu mesoskaligen Wasser- und Stoffhaushaltsmodellen konzipiert, um die Beschaffenheit einzelner Wasserkörper auf dieser räumlichen Skala in adequater Weise abbilden zu können. Dieser Aufgabenstellung kommt im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (WRRL) besondere Bedeutung zu. Das entwickelte Simulationsmodell TRAM setzt sich aus einem Transport- und einem Reaktionsmodell zusammen. Letzteres zeichnet sich durch eine hohe Flexibilität hinsichtlich der Beschreibung gewässerinterner Stoffumsatzprozesse aus. Es können mit geringem Aufwand unterschiedlich komplexe Ansätze der Prozessbeschreibung getestet und die - je nach Problemstellung, Systemverständnis und Datenverfügbarkeit - angemessene Modellformulierung gewählt werden. TRAM eignet sich somit gleichermaßen für stark vereinfachende Ingenieur-Anwendungen wie für wissenschaftliche Analysen, die komplexe aquatische Ökosystemmodelle mit einer Vielzahl an Zustandsvariablen, Interaktionen und Randbedingungen erfordern. Weitere Charakteristika von TRAM sind die Koppelbarkeit mit öko-hydrologischen Einzugsgebietsmodellen sowie einem hydrodynamischen Modell, die Unterstützung von Modellparametrisierung und Visualisierungen durch Geografische Informationssysteme (GIS) und ein klar strukturiertes Daten-Management. TRAM wurde im Rahmen des BMBF-geförderten Forschungsprojekts 'Bewirtschaftungsmöglichkeiten im Einzugsgebiet der Havel' entwickelt. Gegenstand dieses Projektes war die Analyse von Handlungsoptionen zur Verminderung von Nährstoffeinträgen in die Oberflächengewässer des Havel-Einzugsgebiets als Beitrag zur Erreichung der Ziele der WRRL. Mit dem Einsatz von TRAM wurden zwei Zielstellungen verfolgt: In einem ersten Schritt wurden Bedeutung und Muster der gewässerinternen Stickstoff-Retention sowie der Phosphor-Freisetzung aus See-Sedimenten quantifiziert (Systemanalyse). Auf dieser Basis konnten vereinfachte, konzeptionelle Ansätze zur Beschreibung von N-Retention und P-Remobilisierung abgeleitet werden. In einem zweiten Schritt wurden, unter Nutzung dieser Ansätze, die Auswirkungen verringerter externer Nährstoffeinträge auf gewässerinterne N- und P-Konzentrationen simuliert (Szenario-Analysen) und die Unsicherheiten der Modellrechnungen untersucht. Als Randbedingungen für die Szenario-Analysen dienten Simulationsergebnisse der öko-hydrologischen Einzugsgebietsmodelle SWIM und ArcEGMO, welche durch Projektpartner zur Verfügung gestellt wurden. Die mittels TRAM berechneten Nährstoffkonzentrationen bildeten schließlich die Grundlage für eine Evaluierung der Handlungsoptionen anhand einer gewässertypspezifischen, WRRL-konformen Bewertungsskala. Die Simulationsergebnisse zeigen, dass die Zielvorgabe der WRRL bezüglich Gesamt-Phosphor im Falle der Unteren Havel mittelfristig erreicht werden kann, wenn das Potential zur Senkung der Einträge aus punktförmigen und diffusen Quellen voll ausgeschöpft wird. Weiterhin kann im Zeitraum bis 2015 bereits mit einem merklichen Nachlassen der internen Phosphat-Freisetzung aufgrund einer Aushagerung der Sedimente gerechnet werden. Mit Hilfe von Massenbilanzierungen ließ sich zeigen, dass die Havelseen eine bedeutende Stickstoff-Senke darstellen. Dieser natürliche Retentionseffekt unterstützt wesentlich die Bemühungen zur Verminderung der Stickstoff-Belastung. Im Sinne einer nachhaltigen Verbesserung der Wassergüte der Unteren Havel erscheinen verstärkte Anstrengungen zur weiteren Reduzierung sowohl der Phosphor- als auch der Stickstoff-Emissionen geboten. KW - Wassergüte KW - Modellierung KW - Nährstoffe KW - Fluss-Seen KW - Management KW - water quality KW - modeling KW - nutrients KW - river-lake systems KW - management Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-14647 ER - TY - THES A1 - Hu, Ji T1 - A virtual machine architecture for IT-security laboratories T1 - Eine virtuelle maschinenbasierte Architektur für IT-Sicherheitslabore N2 - This thesis discusses challenges in IT security education, points out a gap between e-learning and practical education, and presents a work to fill the gap. E-learning is a flexible and personalized alternative to traditional education. Nonetheless, existing e-learning systems for IT security education have difficulties in delivering hands-on experience because of the lack of proximity. Laboratory environments and practical exercises are indispensable instruction tools to IT security education, but security education in conventional computer laboratories poses particular problems such as immobility as well as high creation and maintenance costs. Hence, there is a need to effectively transform security laboratories and practical exercises into e-learning forms. In this thesis, we introduce the Tele-Lab IT-Security architecture that allows students not only to learn IT security principles, but also to gain hands-on security experience by exercises in an online laboratory environment. In this architecture, virtual machines are used to provide safe user work environments instead of real computers. Thus, traditional laboratory environments can be cloned onto the Internet by software, which increases accessibility to laboratory resources and greatly reduces investment and maintenance costs. Under the Tele-Lab IT-Security framework, a set of technical solutions is also proposed to provide effective functionalities, reliability, security, and performance. The virtual machines with appropriate resource allocation, software installation, and system configurations are used to build lightweight security laboratories on a hosting computer. Reliability and availability of laboratory platforms are covered by a virtual machine management framework. This management framework provides necessary monitoring and administration services to detect and recover critical failures of virtual machines at run time. Considering the risk that virtual machines can be misused for compromising production networks, we present a security management solution to prevent the misuse of laboratory resources by security isolation at the system and network levels. This work is an attempt to bridge the gap between e-learning/tele-teaching and practical IT security education. It is not to substitute conventional teaching in laboratories but to add practical features to e-learning. This thesis demonstrates the possibility to implement hands-on security laboratories on the Internet reliably, securely, and economically. N2 - Diese Dissertation beschreibt die Herausforderungen in der IT Sicherheitsausbildung und weist auf die noch vorhandene Lücke zwischen E-Learning und praktischer Ausbildung hin. Sie erklärt einen Ansatz sowie ein System, um diese Lücke zwischen Theorie und Praxis in der elektronischen Ausbildung zu schließen. E-Learning ist eine flexible und personalisierte Alternative zu traditionellen Lernmethoden. Heutigen E-Learning Systemen mangelt es jedoch an der Fähigkeit, praktische Erfahrungen über große Distanzen zu ermöglichen. Labor- bzw. Testumgebungen sowie praktische Übungen sind jedoch unverzichtbar, wenn es um die Ausbildung von Sicherheitsfachkräften geht. Konventionelle Laborumgebungen besitzen allerdings einige Nachteile wie bspw. hoher Erstellungsaufwand, keine Mobilität, hohe Wartungskosten, etc. Die Herausforderung heutiger IT Sicherheitsausbildung ist es daher, praktische Sicherheitslaborumgebungen und Übungen effektiv mittels E-Learning zu unterstützen. In dieser Dissertation wird die Architektur von Tele-Lab IT-Security vorgestellt, die Studenten nicht nur erlaubt theoretische Sicherheitskonzepte zu erlernen, sondern darüber hinaus Sicherheitsübungen in einer Online-Laborumgebung praktisch zu absolvieren. Die Teilnehmer können auf diese Weise wichtige praktische Erfahrungen im Umgang mit Sicherheitsprogrammen sammeln. Zur Realisierung einer sicheren Übungsumgebung, werden virtuelle Maschinen anstatt reale Rechner im Tele-Lab System verwendet. Mittels virtueller Maschinen können leicht Laborumgebungen geklont, verwaltet und über das Internet zugänglich gemacht werden. Im Vergleich zu herkömmlichen Offline-Laboren können somit erhebliche Investitions- und Wartungskosten gespart werden. Das Tele-Lab System bietet eine Reihe von technischen Funktionen, die den effektiven, zuverlässigen und sicheren Betrieb dieses Trainingssystems gewährleistet. Unter Beachtung angemessener Ressourcennutzung, Softwareinstallationen und Systemkonfigurationen wurden virtuelle Maschinen als Übungsstationen erstellt, die auf einem einzelnen Rechner betrieben werden. Für ihre Zuverlässigkeit und Verfügbarkeit ist das Managementsystem der virtuellen Maschinen verantwortlich. Diese Komponente besitzt die notwendigen Überwachungs- und Verwaltungsfunktionen, um kritische Fehler der virtuellen Maschinen während der Laufzeit zu erkennen und zu beheben. Damit die Übungsstationen nicht bspw. zur Kompromittierung von Produktivnetzwerken genutzt werden, beschreibt die Dissertation Sicherheits-Managementlösungen, die mittels Isolation auf System und Netzwerk Ebene genau dieses Risiko verhindern sollen. Diese Arbeit ist der Versuch, die Lücke zwischen E-Learning/Tele-Teaching und praktischer Sicherheitsausbildung zu schließen. Sie verfolgt nicht das Ziel, konventionelle Ausbildung in Offline Laboren zu ersetzen, sondern auch praktische Erfahrungen via E-Learning zu unterstützen. Die Dissertation zeigt die Möglichkeit, praktische Erfahrungen mittels Sicherheitsübungsumgebungen über das Internet auf zuverlässige, sichere und wirtschaftliche Weise zu vermitteln. KW - Computersicherheit KW - VM KW - E-Learning KW - IT security KW - virtual machine KW - E-Learning Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7818 ER - TY - THES A1 - Vu, Nils Leif T1 - A task-based parallel elliptic solver for numerical relativity with discontinuous Galerkin methods N2 - Elliptic partial differential equations are ubiquitous in physics. In numerical relativity---the study of computational solutions to the Einstein field equations of general relativity---elliptic equations govern the initial data that seed every simulation of merging black holes and neutron stars. In the quest to produce detailed numerical simulations of these most cataclysmic astrophysical events in our Universe, numerical relativists resort to the vast computing power offered by current and future supercomputers. To leverage these computational resources, numerical codes for the time evolution of general-relativistic initial value problems are being developed with a renewed focus on parallelization and computational efficiency. Their capability to solve elliptic problems for accurate initial data must keep pace with the increasing detail of the simulations, but elliptic problems are traditionally hard to parallelize effectively. In this thesis, I develop new numerical methods to solve elliptic partial differential equations on computing clusters, with a focus on initial data for orbiting black holes and neutron stars. I develop a discontinuous Galerkin scheme for a wide range of elliptic equations, and a stack of task-based parallel algorithms for their iterative solution. The resulting multigrid-Schwarz preconditioned Newton-Krylov elliptic solver proves capable of parallelizing over 200 million degrees of freedom to at least a few thousand cores, and already solves initial data for a black hole binary about ten times faster than the numerical relativity code SpEC. I also demonstrate the applicability of the new elliptic solver across physical disciplines, simulating the thermal noise in thin mirror coatings of interferometric gravitational-wave detectors to unprecedented accuracy. The elliptic solver is implemented in the new open-source SpECTRE numerical relativity code, and set up to support simulations of astrophysical scenarios for the emerging era of gravitational-wave and multimessenger astronomy. N2 - Elliptische partielle Differentialgleichungen sind in der Physik allgegenwärtig. Das elektrische Feld einer Ladung, die Gravitation der Erde, die Statik einer Brücke, oder die Temperaturverteilung auf einer heißen Herdplatte folgen trotz verschiedenster zugrundeliegender Physik elliptischen Gleichungen ähnlicher Struktur, denn es sind statische, also zeitunabhängige Effekte. Elliptische Gleichungen beschreiben auch astrophysikalische Szenarien von kataklysmischen Ausmaßen, die jegliche Gegebenheiten auf der Erde weit überschreiten. So werden Schwarze Löcher und Neutronensterne -- zwei mögliche Endstadien von massereichen Sternen -- ebenfalls von elliptischen Gleichungen beschrieben. In diesem Fall sind es Einstein's Feldgleichungen von Raum, Zeit, Gravitation und Materie. Da Schwarze Löcher und Neutronensterne mehr Masse als unsere Sonne auf die Größe einer Stadt wie Potsdam komprimieren übernimmt die Gravitation, und damit Einstein's allgemeine Relativitätstheorie, die Kontrolle. Es ist die Aufgabe der numerischen Relativität, Szenarien wie die Kollision solcher gewaltigen Objekte mithilfe von Supercomputern zu simulieren und damit die Gravitationswellensignale vorherzusagen, die von Detektoren auf der Erde gemessen werden können. Jede dieser Simulationen beginnt mit Anfangsdaten, die elliptische Gleichungen erfüllen müssen. In dieser Dissertation entwickle ich neue numerische Methoden um elliptische partielle Differentialgleichungen auf Supercomputern zu lösen, mit besonderem Augenmerk auf Anfangsdaten für Simulationen von Schwarzen Löchern und Neutronensternen. Ich entwickle dafür eine sogenannte discontinuous Galerkin Methode um elliptische Gleichungen auf Computern zu repräsentieren, sowie eine Reihe von Algorithmen um diese Gleichungen anschließend schrittweise numerisch zu lösen bis sie die notwendige Präzision erfüllen. Die Besonderheit dieser Algorithmen liegt in ihrer Eigenschaft, in viele Teilprobleme zerlegt auf einer großen Zahl von Rechenkernen parallel arbeiten zu können. Dieses task-based parallelism ermöglicht die effektive Verwendung von Supercomputern. Ich demonstriere die Fähigkeit meiner Algorithmen, Berechnungen von über 200 Millionen Unbekannten mit hoher Effizienz auf mindestens einige Tausend Rechenkerne verteilen zu können, und Anfangsdaten zweier sich umkreisender Schwarzer Löcher bereits etwa zehnmal schneller zu lösen als der langjährig verwendete Computercode SpEC. Außerdem zeige ich, dass mein neuer Code auch außerhalb der Relativitätstheorie anwendbar ist. Dazu simuliere ich thermisches Rauschen in den Beschichtungen von Spiegeln, das ebenfalls von elliptischen Gleichungen beschrieben wird. Solche Spiegel sind Objekt großen Forschungsinteresses, da sie ein zentrales Element von Gravitationswellendetektoren darstellen. Mein Code zur numerischen Lösung elliptischer Gleichungen ist Teil des kollaborativen und quelloffenen SpECTRE Forschungsprojekts zur Simulation astrophysikalischer Szenarien für die aufstrebende Ära der Gravitationswellen- und Multimessenger-Astronomie. KW - numerical relativity KW - task-based parallelism KW - discontinuous Galerkin methods KW - elliptic partial differential equations KW - black holes KW - initial data KW - high-performance computing KW - iterative methods for sparse linear systems KW - gravitational waves KW - thermal noise in mirror coatings KW - numerische Relativität KW - elliptische partielle Differentialgleichungen KW - schwarze Löcher KW - Anfangsdaten KW - Hochleistungscomputer KW - iterative Methoden zur Lösung linearer Systeme KW - Gravitationswellen KW - thermisches Rauschen in Spiegelbeschichtungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562265 ER - TY - THES A1 - Kraus, Sara Milena T1 - A Systems Medicine approach for heart valve diseases BT - addressing the proteomic landscape and differential expression software N2 - In Systems Medicine, in addition to high-throughput molecular data (*omics), the wealth of clinical characterization plays a major role in the overall understanding of a disease. Unique problems and challenges arise from the heterogeneity of data and require new solutions to software and analysis methods. The SMART and EurValve studies establish a Systems Medicine approach to valvular heart disease -- the primary cause of subsequent heart failure. With the aim to ascertain a holistic understanding, different *omics as well as the clinical picture of patients with aortic stenosis (AS) and mitral regurgitation (MR) are collected. Our task within the SMART consortium was to develop an IT platform for Systems Medicine as a basis for data storage, processing, and analysis as a prerequisite for collaborative research. Based on this platform, this thesis deals on the one hand with the transfer of the used Systems Biology methods to their use in the Systems Medicine context and on the other hand with the clinical and biomolecular differences of the two heart valve diseases. To advance differential expression/abundance (DE/DA) analysis software for use in Systems Medicine, we state 21 general software requirements and features of automated DE/DA software, including a novel concept for the simple formulation of experimental designs that can represent complex hypotheses, such as comparison of multiple experimental groups, and demonstrate our handling of the wealth of clinical data in two research applications DEAME and Eatomics. In user interviews, we show that novice users are empowered to formulate and test their multiple DE hypotheses based on clinical phenotype. Furthermore, we describe insights into users' general impression and expectation of the software's performance and show their intention to continue using the software for their work in the future. Both research applications cover most of the features of existing tools or even extend them, especially with respect to complex experimental designs. Eatomics is freely available to the research community as a user-friendly R Shiny application. Eatomics continued to help drive the collaborative analysis and interpretation of the proteomic profile of 75 human left myocardial tissue samples from the SMART and EurValve studies. Here, we investigate molecular changes within the two most common types of valvular heart disease: aortic valve stenosis (AS) and mitral valve regurgitation (MR). Through DE/DA analyses, we explore shared and disease-specific protein alterations, particularly signatures that could only be found in the sex-stratified analysis. In addition, we relate changes in the myocardial proteome to parameters from clinical imaging. We find comparable cardiac hypertrophy but differences in ventricular size, the extent of fibrosis, and cardiac function. We find that AS and MR show many shared remodeling effects, the most prominent of which is an increase in the extracellular matrix and a decrease in metabolism. Both effects are stronger in AS. In muscle and cytoskeletal adaptations, we see a greater increase in mechanotransduction in AS and an increase in cortical cytoskeleton in MR. The decrease in proteostasis proteins is mainly attributable to the signature of female patients with AS. We also find relevant therapeutic targets. In addition to the new findings, our work confirms several concepts from animal and heart failure studies by providing the largest collection of human tissue from in vivo collected biopsies to date. Our dataset contributing a resource for isoform-specific protein expression in two of the most common valvular heart diseases. Apart from the general proteomic landscape, we demonstrate the added value of the dataset by showing proteomic and transcriptomic evidence for increased expression of the SARS-CoV-2- receptor at pressure load but not at volume load in the left ventricle and also provide the basis of a newly developed metabolic model of the heart. N2 - In der Systemmedizin spielt zusätzlich zu den molekularen Hochdurchsatzdaten (*omics) die Fülle an klinischer Charakterisierung eine große Rolle im Gesamtverständnis einer Krankheit. Hieraus ergeben sich Probleme und Herausforderungen unter anderem in Bezug auf Softwarelösungen und Analysemethoden. Die SMART- und EurValve-Studien etablieren einen systemmedizinischen Ansatz für Herzklappenerkrankungen -- die Hauptursache für eine spätere Herzinsuffizienz. Mit dem Ziel ein ganzheitliches Verständnis zu etablieren, werden verschiedene *omics sowie das klinische Bild von Patienten mit Aortenstenosen (AS) und Mitralklappeninsuffizienz (MR) erhoben. Unsere Aufgabe innerhalb des SMART Konsortiums bestand in der Entwicklung einer IT-Plattform für Systemmedizin als Grundlage für die Speicherung, Verarbeitung und Analyse von Daten als Voraussetzung für gemeinsame Forschung. Ausgehend von dieser Plattform beschäftigt sich diese Arbeit einerseits mit dem Transfer der genutzten systembiologischen Methoden hin zu einer Nutzung im systemmedizinischen Kontext und andererseits mit den klinischen und biomolekularen Unterschieden der beiden Herzklappenerkrankungen. Um die Analysesoftware für differenzielle Expression/Abundanz, eine häufig genutzte Methode der System Biologie, für die Nutzung in der Systemmedizin voranzutreiben, erarbeiten wir 21 allgemeine Softwareanforderungen und Funktionen einer automatisierten DE/DA Software. Darunter ist ein neuartiges Konzept für die einfache Formulierung experimenteller Designs, die auch komplexe Hypothesen wie den Vergleich mehrerer experimenteller Gruppen abbilden können und demonstrieren unseren Umgang mit der Fülle klinischer Daten in zwei Forschungsanwendungen -- DEAME und Eatomics. In Nutzertests zeigen wir, dass Nutzer befähigt werden, ihre vielfältigen Hypothesen zur differenziellen Expression basierend auf dem klinischen Phänotyp zu formulieren und zu testen, auch ohne einen dedizierten Hintergrund in Bioinformatik. Darüber hinaus beschreiben wir Einblicke in den allgemeinen Eindruck der Nutzer, ihrer Erwartung an die Leistung der Software und zeigen ihre Absicht, die Software auch in der Zukunft für ihre Arbeit zu nutzen. Beide Forschungsanwendungen decken die meisten Funktionen bestehender Tools ab oder erweitern sie sogar, insbesondere im Hinblick auf komplexe experimentelle Designs. Eatomics steht der Forschungsgemeinschaft als benutzerfreundliche R Shiny-Anwendung frei zur Verfügung. \textit{Eatomics} hat weiterhin dazu beigetragen, die gemeinsame Analyse und Interpretation des Proteomprofils von 75 menschlichen linken Myokardgewebeproben aus den SMART- und EurValve-Studien voran zu treiben. Hier untersuchen wir die molekularen Veränderungen innerhalb der beiden häufigsten Arten von Herzklappenerkrankungen: AS und MR. Durch DE/DA Analysen erarbeiten wir gemeinsame und krankheitsspezifische Proteinveränderungen, insbesondere Signaturen, die nur in einer geschlechtsstratifizierten Analyse gefunden werden konnten. Darüber hinaus beziehen wir Veränderungen des Myokardproteoms auf Parameter aus der klinischen Bildgebung. Wir finden eine vergleichbare kardiale Hypertrophie, aber Unterschiede in der Ventrikelgröße, dem Ausmaß der Fibrose und der kardialen Funktion. Wir stellen fest, dass AS und MR viele gemeinsame Remodelling-Effekte zeigen, von denen die wichtigsten die Zunahme der extrazellulären Matrix und eine Abnahme des Metabolismus sind. Beide Effekte sind bei AS stärker. Zusätzlich zeigt sich eine größere Variabilität zwischen den einzelnen Patienten mit AS. Bei Muskel- und Zytoskelettanpassungen sehen wir einen stärkeren Anstieg der Mechanotransduktion bei AS und einen Anstieg des kortikalen Zytoskeletts bei MR. Die Abnahme von Proteinen der Proteostase ist vor allem der Signatur von weiblichen Patienten mit AS zuzuschreiben. Außerdem finden wir therapierelevante Proteinveränderungen. Zusätzlich zu den neuen Erkenntnissen bestätigt unsere Arbeit mehrere Konzepte aus Tierstudien und Studien zu Herzversagen durch die bislang größte Kollektion von humanem Gewebe aus in vivo Biopsien. Mit unserem Datensatz stellen wir eine Ressource für die isoformspezifische Proteinexpression bei zwei der häufigsten Herzklappenerkrankungen zur Verfügung. Abgesehen von der allgemeinen Proteomlandschaft zeigen wir den Mehrwert des Datensatzes, indem wir proteomische und transkriptomische Beweise für eine erhöhte Expression des SARS-CoV-2- Rezeptors bei Drucklast, jedoch nicht bei Volumenlast im linken Ventrikel aufzeigen und außerdem die Grundlage eines neu entwickelten metabolischen Modells des Herzens liefern. KW - Systems Medicine KW - Systemmedizin KW - Proteomics KW - Proteom KW - Heart Valve Diseases KW - Herzklappenerkrankungen KW - Differential Expression Analysis KW - Software KW - Software Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-522266 ER - TY - THES A1 - Zauber, Henrik T1 - A systems biology driven approach for analyzing lipid protein interactions in sterol biosynthesis mutants Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Andorf, Sandra T1 - A systems biological approach towards the molecular basis of heterosis in Arabidopsis thaliana T1 - Ein systembiologischer Ansatz für das Verständnis der molekularen Grundlagen von Heterosis in Arabidopsis thaliana N2 - Heterosis is defined as the superiority in performance of heterozygous genotypes compared to their corresponding genetically different homozygous parents. This phenomenon is already known since the beginning of the last century and it has been widely used in plant breeding, but the underlying genetic and molecular mechanisms are not well understood. In this work, a systems biological approach based on molecular network structures is proposed to contribute to the understanding of heterosis. Hybrids are likely to contain additional regulatory possibilities compared to their homozygous parents and, therefore, they may be able to correctly respond to a higher number of environmental challenges, which leads to a higher adaptability and, thus, the heterosis phenomenon. In the network hypothesis for heterosis, presented in this work, more regulatory interactions are expected in the molecular networks of the hybrids compared to the homozygous parents. Partial correlations were used to assess this difference in the global interaction structure of regulatory networks between the hybrids and the homozygous genotypes. This network hypothesis for heterosis was tested on metabolite profiles as well as gene expression data of the two parental Arabidopsis thaliana accessions C24 and Col-0 and their reciprocal crosses. These plants are known to show a heterosis effect in their biomass phenotype. The hypothesis was confirmed for mid-parent and best-parent heterosis for either hybrid of our experimental metabolite as well as gene expression data. It was shown that this result is influenced by the used cutoffs during the analyses. Too strict filtering resulted in sets of metabolites and genes for which the network hypothesis for heterosis does not hold true for either hybrid regarding mid-parent as well as best-parent heterosis. In an over-representation analysis, the genes that show the largest heterosis effects according to our network hypothesis were compared to genes of heterotic quantitative trait loci (QTL) regions. Separately for either hybrid regarding mid-parent as well as best-parent heterosis, a significantly larger overlap between the resulting gene lists of the two different approaches towards biomass heterosis was detected than expected by chance. This suggests that each heterotic QTL region contains many genes influencing biomass heterosis in the early development of Arabidopsis thaliana. Furthermore, this integrative analysis led to a confinement and an increased confidence in the group of candidate genes for biomass heterosis in Arabidopsis thaliana identified by both approaches. N2 - Als Heterosis-Effekt wird die Überlegenheit in einem oder mehreren Leistungsmerkmalen (z.B. Blattgröße von Pflanzen) von heterozygoten (mischerbigen) Nachkommen über deren unterschiedlich homozygoten (reinerbigen) Eltern bezeichnet. Dieses Phänomen ist schon seit Beginn des letzten Jahrhunderts bekannt und wird weit verbreitet in der Pflanzenzucht genutzt. Trotzdem sind die genetischen und molekularen Grundlagen von Heterosis noch weitestgehend unbekannt. Es wird angenommen, dass heterozygote Individuen mehr regulatorische Möglichkeiten aufweisen als ihre homozygoten Eltern und sie somit auf eine größere Anzahl an wechselnden Umweltbedingungen richtig reagieren können. Diese erhöhte Anpassungsfähigkeit führt zum Heterosis-Effekt. In dieser Arbeit wird ein systembiologischer Ansatz, basierend auf molekularen Netzwerkstrukturen verfolgt, um zu einem besseren Verständnis von Heterosis beizutragen. Dazu wird eine Netzwerkhypothese für Heterosis vorgestellt, die vorhersagt, dass die heterozygoten Individuen, die Heterosis zeigen, mehr regulatorische Interaktionen in ihren molekularen Netzwerken aufweisen als die homozygoten Eltern. Partielle Korrelationen wurden verwendet, um diesen Unterschied in den globalen Interaktionsstrukturen zwischen den Heterozygoten und ihren homozygoten Eltern zu untersuchen. Die Netzwerkhypothese wurde anhand von Metabolit- und Genexpressionsdaten der beiden homozygoten Arabidopsis thaliana Pflanzenlinien C24 und Col-0 und deren wechselseitigen Kreuzungen getestet. Arabidopsis thaliana Pflanzen sind bekannt dafür, dass sie einen Heterosis-Effekt im Bezug auf ihre Biomasse zeigen. Die heterozygoten Pflanzen weisen bei gleichem Alter eine höhere Biomasse auf als die homozygoten Pflanzen. Die Netzwerkhypothese für Heterosis konnte sowohl im Bezug auf mid-parent Heterosis (Unterschied in der Leistung des Heterozygoten im Vergleich zum Mittelwert der Eltern) als auch auf best-parent Heterosis (Unterschied in der Leistung des Heterozygoten im Vergleich zum Besseren der Eltern) für beide Kreuzungen für die Metabolit- und Genexpressionsdaten bestätigt werden. In einer Überrepräsentations-Analyse wurden die Gene, für die die größte Veränderung in der Anzahl der regulatorischen Interaktionen, an denen sie vermutlich beteiligt sind, festgestellt wurde, mit den Genen aus einer quantitativ genetischen (QTL) Analyse von Biomasse-Heterosis in Arabidopsis thaliana verglichen. Die ermittelten Gene aus beiden Studien zeigen eine größere Überschneidung als durch Zufall erwartet. Das deutet darauf hin, dass jede identifizierte QTL-Region viele Gene, die den Biomasse-Heterosis-Effekt in Arabidopsis thaliana beeinflussen, enthält. Die Gene, die in den Ergebnislisten beider Analyseverfahren überlappen, können mit größerer Zuversicht als Kandidatengene für Biomasse-Heterosis in Arabidopsis thaliana betrachtet werden als die Ergebnisse von nur einer Studie. KW - Systembiologie KW - Heterosis KW - Molekulare Profildaten KW - Integrative Analyse KW - Systems biology KW - Heterosis KW - Molecular profile data KW - Integrative analysis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51173 ER - TY - THES A1 - Stange, Maike T1 - A study on Coronin-A and Aip1 function in motility of Dictyostelium discoideum and on Aip1 interchangeability between Dictyostelium discoideum and Arabidopsis thaliana T1 - Studie über die Funktion von Coronin-A und Aip1 bei der Motilität von Dictyostelium discoideum und zur Aip1-Austauschbarkeit zwischen Dictyostelium discoideum und Arabidopsis thaliana N2 - Actin is one of the most highly conserved proteins in eukaryotes and distinct actin-related proteins with filament-forming properties are even found in prokaryotes. Due to these commonalities, actin-modulating proteins of many species share similar structural properties and proposed functions. The polymerization and depolymerization of actin are critical processes for a cell as they can contribute to shape changes to adapt to its environment and to move and distribute nutrients and cellular components within the cell. However, to what extent functions of actin-binding proteins are conserved between distantly related species, has only been addressed in a few cases. In this work, functions of Coronin-A (CorA) and Actin-interacting protein 1 (Aip1), two proteins involved in actin dynamics, were characterized. In addition, the interchangeability and function of Aip1 were investigated in two phylogenetically distant model organisms. The flowering plant Arabidopsis thaliana (encoding two homologs, AIP1-1 and AIP1-2) and in the amoeba Dictyostelium discoideum (encoding one homolog, DdAip1) were chosen because the functions of their actin cytoskeletons may differ in many aspects. Functional analyses between species were conducted for AIP1 homologs as flowering plants do not harbor a CorA gene. In the first part of the study, the effect of four different mutation methods on the function of Coronin-A protein and the resulting phenotype in D. discoideum was revealed in two genetic knockouts, one RNAi knockdown and a sudden loss-of-function mutant created by chemical-induced dislocation (CID). The advantages and disadvantages of the different mutation methods on the motility, appearance and development of the amoebae were investigated, and the results showed that not all observed properties were affected with the same intensity. Remarkably, a new combination of Selection-Linked Integration and CID could be established. In the second and third parts of the thesis, the exchange of Aip1 between plant and amoeba was carried out. For A. thaliana, the two homologs (AIP1-1 and AIP1-2) were analyzed for functionality as well as in D. discoideum. In the Aip1-deficient amoeba, rescue with AIP1-1 was more effective than with AIP1-2. The main results in the plant showed that in the aip1-2 mutant background, reintroduced AIP1-2 displayed the most efficient rescue and A. thaliana AIP1-1 rescued better than DdAip1. The choice of the tagging site was important for the function of Aip1 as steric hindrance is a problem. The DdAip1 was less effective when tagged at the C-terminus, while the plant AIP1s showed mixed results depending on the tag position. In conclusion, the foreign proteins partially rescued phenotypes of mutant plants and mutant amoebae, despite the organisms only being very distantly related in evolutionary terms. N2 - Actin ist eines der am stärksten konservierten Proteine in Eukaryoten und sogar Prokaryoten weisen Aktin-ähnliche Proteine mit filamentbildenden Eigenschaften auf. Aufgrund dieser Gemeinsamkeiten teilen Aktin-modulierte Proteine vieler Arten ähnliche strukturelle Eigenschaften und vermutlich auch Funktionen. Die Polymerisierung und Depolymerisation von Aktin sind kritische Prozesse für eine Zelle, da sie zu Zellformänderungen beitragen können, um sich an die Umgebung anzupassen und Nährstoffe sowie zelluläre Komponenten innerhalb der Zelle zu bewegen und zu verteilen. Inwieweit die Funktionen von Aktin-bindenden Proteinen zwischen entfernt verwandten Arten funktionell konserviert sind, wurde jedoch nur in wenigen Fällen untersucht. In dieser Arbeit wurden Funktionen von Coronin-A (CorA) und Actin-interagierendem Protein 1 (AIP1), zweier an der Aktindynamik beteiligter Proteine, charakterisiert. Darüber hinaus wurde die Austauschbarkeit und Funktion von AIP1 in zwei phylogenetisch entfernten Modellorganismen untersucht. Die Blütenpflanze Arabidopsis thaliana (kodiert für zwei Homologe: AIP1-1 und AIP1-2) und die Amöbe Dictyostelium discoideum (kodiert für ein Homolog: DdAip1) wurden ausgewählt, weil die Funktionen ihrer Aktin-Zytoskelette in mehreren Aspekten verschieden sein könnten. Funktionelle Analysen zwischen Arten wurden für AIP1-Homologe durchgeführt, da Blütenpflanzen kein CorA Gen tragen. Im ersten Teil der Arbeit wurde die Wirkung von vier verschiedenen Mutationsmethoden auf die Funktion des CorA-Proteins und des resultierenden Phänotyps in D. discoideum in zwei genetischen Knockouts, einem RNAi Knockdown und einem durch chemisch induzierte Delokalisierung (CID) erzeugten Mutanten geprüft. Die Vor- und Nachteile der Methoden zur Motilität, des Aussehens und der Entwicklung der Amöben wurden untersucht. Die Ergebnisse zeigten, dass nicht alle beobachteten Eigenschaften mit der gleichen Intensität beeinflusst wurden. Hierbei wurde eine neue Methodenkombination aus selektionsgebundener Integration und CID etabliert. Im zweiten und im dritten Teil der Arbeit wurde der Austausch von AIP1 zwischen Pflanze und Amöben durchgeführt. Die zwei A. thaliana-Homologe AIP1-1 und AIP1-2 wurden auf Funktionalität in D. discoideum geprüft. In Aip1-defizienten Amöben war die Rettung mit AIP1-1 effektiver als bei AIP1-2. Die Hauptergebnisse der Arbeit wiesen darauf hin, dass AIP1-2 im aip1.2-1 act7 Mutantenhintergrund die effizienteste Rettung zeigte, während A. thaliana AIP1-1 effizienter rettete als DdAip1. Die Auswahl der Tagging-Site war für die AIP1-Funktion bedeutend, da sterische Hinderung eine Rolle spielen könnte. DdAip1 war weniger effektiv, wenn es am C-Terminus fusioniert war, während die Proteinfusionen der A. thaliana AIP1s je nach Position der „tags“ unterschiedliche Ergebnisse zeigten. Zusammenfassend retteten die fremden Proteine teilweise Phänotypen von mutierten Pflanzen und mutierten Amöben, obwohl die Organismen evolutionär weit entfernt verwandt sind. KW - actin KW - cell motility KW - plant growth KW - selection-linked integration KW - chemically induced dislocation KW - interspecies interchange KW - Aktin KW - Zellmotilität KW - Pflanzenwachstum KW - Selection-Linked Integration KW - chemisch-induzierte Dislokation KW - Austausch zwischen zwei Spezies Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-628569 ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - Sokolova, Elena T1 - A Study of large-scale Atmospheric Dynamics on the Basic of NCEP Data and AOGCM Simulations Y1 - 2006 CY - Potsdam ER - TY - THES A1 - Buschmann, Stefan T1 - A software framework for GPU-based geo-temporal visualization techniques T1 - Ein Software-Framework für GPU-basierte räumlich-zeitliche Visualisierungstechniken N2 - Räumlich-zeitliche Daten sind Daten, welche sowohl einen Raum- als auch einen Zeitbezug aufweisen. So können beispielsweise Zeitreihen von Geodaten, thematische Karten die sich über die Zeit verändern, oder Bewegungsaufzeichnungen von sich bewegenden Objekten als räumlich-zeitliche Daten aufgefasst werden. In der heutigen automatisierten Welt gibt es eine wachsende Anzahl von Datenquellen, die beständig räumlich-zeitliche Daten generieren. Hierzu gehören beispielsweise Verkehrsüberwachungssysteme, die Bewegungsdaten von Menschen oder Fahrzeugen aufzeichnen, Fernerkundungssysteme, welche regelmäßig unsere Umgebung scannen und digitale Abbilder wie z.B. Stadt- und Landschaftsmodelle erzeugen, sowie Sensornetzwerke in unterschiedlichsten Anwendungsgebieten, wie z.B. der Logistik, der Verhaltensforschung von Tieren, oder der Klimaforschung. Zur Analyse räumlich-zeitlicher Daten werden neben der automatischen Analyse mittels statistischer Methoden und Data-Mining auch explorative Methoden angewendet, welche auf der interaktiven Visualisierung der Daten beruhen. Diese Methode der Analyse basiert darauf, dass Anwender in Form interaktiver Visualisierung die Daten explorieren können, wodurch die menschliche Wahrnehmung sowie das Wissen der User genutzt werden, um Muster zu erkennen und dadurch einen Einblick in die Daten zu erlangen. Diese Arbeit beschreibt ein Software-Framework für die Visualisierung räumlich-zeitlicher Daten, welches GPU-basierte Techniken beinhaltet, um eine interaktive Visualisierung und Exploration großer räumlich-zeitlicher Datensätze zu ermöglichen. Die entwickelten Techniken umfassen Datenhaltung, Prozessierung und Rendering und ermöglichen es, große Datenmengen in Echtzeit zu prozessieren und zu visualisieren. Die Hauptbeiträge der Arbeit umfassen: - Konzept und Implementierung einer GPU-zentrierten Visualisierungspipeline. Die beschriebenen Techniken basieren auf dem Konzept einer GPU-zentrierten Visualisierungspipeline, in welcher alle Stufen -- Prozessierung,Mapping, Rendering -- auf der GPU ausgeführt werden. Bei diesem Konzept werden die räumlich-zeitlichen Daten direkt im GPU-Speicher abgelegt. Während des Rendering-Prozesses werden dann mittels Shader-Programmen die Daten prozessiert, gefiltert, ein Mapping auf visuelle Attribute vorgenommen, und schließlich die Geometrien für die Visualisierung erzeugt. Datenprozessierung, Filtering und Mapping können daher in Echtzeit ausgeführt werden. Dies ermöglicht es Usern, die Mapping-Parameter sowie den gesamten Visualisierungsprozess interaktiv zu steuern und zu kontrollieren. - Interaktive Visualisierung attributierter 3D-Trajektorien. Es wurde eine Visualisierungsmethode für die interaktive Exploration einer großen Anzahl von 3D Bewegungstrajektorien entwickelt. Die Trajektorien werden dabei innerhalb einer virtuellen geographischen Umgebung in Form von einfachen Geometrien, wie Linien, Bändern, Kugeln oder Röhren dargestellt. Durch interaktives Mapping können Attributwerte der Trajektorien oder einzelner Messpunkte auf visuelle Eigenschaften abgebildet werden. Hierzu stehen Form, Höhe, Größe, Farbe, Textur, sowie Animation zur Verfügung. Mithilfe dieses dynamischen Mappings wurden außerdem verschiedene Visualisierungsmethoden implementiert, wie z.B. eine Focus+Context-Visualisierung von Trajektorien mithilfe von interaktiven Dichtekarten, sowie einer Space-Time-Cube-Visualisierung zur Darstellung des zeitlichen Ablaufs einzelner Bewegungen. - Interaktive Visualisierung geographischer Netzwerke. Es wurde eine Visualisierungsmethode zur interaktiven Exploration geo-referenzierter Netzwerke entwickelt, welche die Visualisierung von Netzwerken mit einer großen Anzahl von Knoten und Kanten ermöglicht. Um die Analyse von Netzwerken verschiedener Größen und in unterschiedlichen Kontexten zu ermöglichen, stehen mehrere virtuelle geographische Umgebungen zur Verfügung, wie bspw. ein virtueller 3D-Globus, als auch 2D-Karten mit unterschiedlichen geographischen Projektionen. Zur interaktiven Analyse dieser Netzwerke stehen interaktive Tools wie Filterung, Mapping und Selektion zur Verfügung. Des weiteren wurden Visualisierungsmethoden für verschiedene Arten von Netzwerken, wie z.B. 3D-Netzwerke und zeitlich veränderliche Netzwerke, implementiert. Zur Demonstration des Konzeptes wurden interaktive Tools für zwei unterschiedliche Anwendungsfälle entwickelt. Das erste beinhaltet die Visualisierung attributierter 3D-Trajektorien, welche die Bewegungen von Flugzeugen um einen Flughafen beschreiben. Es ermöglicht Nutzern, die Trajektorien von ankommenden und startenden Flugzeugen über den Zeitraum eines Monats interaktiv zu explorieren und zu analysieren. Durch Verwendung der interaktiven Visualisierungsmethoden für 3D-Trajektorien und interaktiven Dichtekarten können Einblicke in die Daten gewonnen werden, wie beispielsweise häufig genutzte Flugkorridore, typische sowie untypische Bewegungsmuster, oder ungewöhnliche Vorkommnisse wie Fehlanflüge. Der zweite Anwendungsfall beinhaltet die Visualisierung von Klimanetzwerken, welche geographischen Netzwerken in der Klimaforschung darstellen. Klimanetzwerke repräsentieren die Dynamiken im Klimasystem durch eine Netzwerkstruktur, die die statistische Beziehungen zwischen Orten beschreiben. Das entwickelte Tool ermöglicht es Analysten, diese großen Netzwerke interaktiv zu explorieren und dadurch die Struktur des Netzwerks zu analysieren und mit den geographischen Daten in Beziehung zu setzen. Interaktive Filterung und Selektion ermöglichen es, Muster in den Daten zu identifizieren, und so bspw. Cluster in der Netzwerkstruktur oder Strömungsmuster zu erkennen. N2 - Spatio-temporal data denotes a category of data that contains spatial as well as temporal components. For example, time-series of geo-data, thematic maps that change over time, or tracking data of moving entities can be interpreted as spatio-temporal data. In today's automated world, an increasing number of data sources exist, which constantly generate spatio-temporal data. This includes for example traffic surveillance systems, which gather movement data about human or vehicle movements, remote-sensing systems, which frequently scan our surroundings and produce digital representations of cities and landscapes, as well as sensor networks in different domains, such as logistics, animal behavior study, or climate research. For the analysis of spatio-temporal data, in addition to automatic statistical and data mining methods, exploratory analysis methods are employed, which are based on interactive visualization. These analysis methods let users explore a data set by interactively manipulating a visualization, thereby employing the human cognitive system and knowledge of the users to find patterns and gain insight into the data. This thesis describes a software framework for the visualization of spatio-temporal data, which consists of GPU-based techniques to enable the interactive visualization and exploration of large spatio-temporal data sets. The developed techniques include data management, processing, and rendering, facilitating real-time processing and visualization of large geo-temporal data sets. It includes three main contributions: - Concept and Implementation of a GPU-Based Visualization Pipeline. The developed visualization methods are based on the concept of a GPU-based visualization pipeline, in which all steps -- processing, mapping, and rendering -- are implemented on the GPU. With this concept, spatio-temporal data is represented directly in GPU memory, using shader programs to process and filter the data, apply mappings to visual properties, and finally generate the geometric representations for a visualization during the rendering process. Data processing, filtering, and mapping are thereby executed in real-time, enabling dynamic control over the mapping and a visualization process which can be controlled interactively by a user. - Attributed 3D Trajectory Visualization. A visualization method has been developed for the interactive exploration of large numbers of 3D movement trajectories. The trajectories are visualized in a virtual geographic environment, supporting basic geometries such as lines, ribbons, spheres, or tubes. Interactive mapping can be applied to visualize the values of per-node or per-trajectory attributes, supporting shape, height, size, color, texturing, and animation as visual properties. Using the dynamic mapping system, several kind of visualization methods have been implemented, such as focus+context visualization of trajectories using interactive density maps, and space-time cube visualization to focus on the temporal aspects of individual movements. - Geographic Network Visualization. A method for the interactive exploration of geo-referenced networks has been developed, which enables the visualization of large numbers of nodes and edges in a geographic context. Several geographic environments are supported, such as a 3D globe, as well as 2D maps using different map projections, to enable the analysis of networks in different contexts and scales. Interactive filtering, mapping, and selection can be applied to analyze these geographic networks, and visualization methods for specific types of networks, such as coupled 3D networks or temporal networks have been implemented. As a demonstration of the developed visualization concepts, interactive visualization tools for two distinct use cases have been developed. The first contains the visualization of attributed 3D movement trajectories of airplanes around an airport. It allows users to explore and analyze the trajectories of approaching and departing aircrafts, which have been recorded over the period of a month. By applying the interactive visualization methods for trajectory visualization and interactive density maps, analysts can derive insight from the data, such as common flight paths, regular and irregular patterns, or uncommon incidents such as missed approaches on the airport. The second use case involves the visualization of climate networks, which are geographic networks in the climate research domain. They represent the dynamics of the climate system using a network structure that expresses statistical interrelationships between different regions. The interactive tool allows climate analysts to explore these large networks, analyzing the network's structure and relating it to the geographic background. Interactive filtering and selection enables them to find patterns in the climate data and identify e.g. clusters in the networks or flow patterns. KW - computer graphics KW - visualization KW - visual analytics KW - Computergrafik KW - Visualisierung KW - Visual Analytics Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443406 ER - TY - THES A1 - Chen, Junchao T1 - A self-adaptive resilient method for implementing and managing the high-reliability processing system T1 - Eine selbstadaptive belastbare Methode zum Implementieren und Verwalten von hochzuverlässigen Verarbeitungssysteme N2 - As a result of CMOS scaling, radiation-induced Single-Event Effects (SEEs) in electronic circuits became a critical reliability issue for modern Integrated Circuits (ICs) operating under harsh radiation conditions. SEEs can be triggered in combinational or sequential logic by the impact of high-energy particles, leading to destructive or non-destructive faults, resulting in data corruption or even system failure. Typically, the SEE mitigation methods are deployed statically in processing architectures based on the worst-case radiation conditions, which is most of the time unnecessary and results in a resource overhead. Moreover, the space radiation conditions are dynamically changing, especially during Solar Particle Events (SPEs). The intensity of space radiation can differ over five orders of magnitude within a few hours or days, resulting in several orders of magnitude fault probability variation in ICs during SPEs. This thesis introduces a comprehensive approach for designing a self-adaptive fault resilient multiprocessing system to overcome the static mitigation overhead issue. This work mainly addresses the following topics: (1) Design of on-chip radiation particle monitor for real-time radiation environment detection, (2) Investigation of space environment predictor, as support for solar particle events forecast, (3) Dynamic mode configuration in the resilient multiprocessing system. Therefore, according to detected and predicted in-flight space radiation conditions, the target system can be configured to use no mitigation or low-overhead mitigation during non-critical periods of time. The redundant resources can be used to improve system performance or save power. On the other hand, during increased radiation activity periods, such as SPEs, the mitigation methods can be dynamically configured appropriately depending on the real-time space radiation environment, resulting in higher system reliability. Thus, a dynamic trade-off in the target system between reliability, performance and power consumption in real-time can be achieved. All results of this work are evaluated in a highly reliable quad-core multiprocessing system that allows the self-adaptive setting of optimal radiation mitigation mechanisms during run-time. Proposed methods can serve as a basis for establishing a comprehensive self-adaptive resilient system design process. Successful implementation of the proposed design in the quad-core multiprocessor shows its application perspective also in the other designs. N2 - Infolge der CMOS-Skalierung wurden strahleninduzierte Einzelereignis-Effekte (SEEs) in elektronischen Schaltungen zu einem kritischen Zuverlässigkeitsproblem für moderne integrierte Schaltungen (ICs), die unter rauen Strahlungsbedingungen arbeiten. SEEs können in der kombinatorischen oder sequentiellen Logik durch den Aufprall hochenergetischer Teilchen ausgelöst werden, was zu destruktiven oder nicht-destruktiven Fehlern und damit zu Datenverfälschungen oder sogar Systemausfällen führt. Normalerweise werden die Methoden zur Abschwächung von SEEs statisch in Verarbeitungsarchitekturen auf der Grundlage der ungünstigsten Strahlungsbedingungen eingesetzt, was in den meisten Fällen unnötig ist und zu einem Ressourcen-Overhead führt. Darüber hinaus ändern sich die Strahlungsbedingungen im Weltraum dynamisch, insbesondere während Solar Particle Events (SPEs). Die Intensität der Weltraumstrahlung kann sich innerhalb weniger Stunden oder Tage um mehr als fünf Größenordnungen ändern, was zu einer Variation der Fehlerwahrscheinlichkeit in ICs während SPEs um mehrere Größenordnungen führt. In dieser Arbeit wird ein umfassender Ansatz für den Entwurf eines selbstanpassenden, fehlerresistenten Multiprozessorsystems vorgestellt, um das Problem des statischen Mitigation-Overheads zu überwinden. Diese Arbeit befasst sich hauptsächlich mit den folgenden Themen: (1) Entwurf eines On-Chip-Strahlungsteilchen Monitors zur Echtzeit-Erkennung von Strahlung Umgebungen, (2) Untersuchung von Weltraumumgebungsprognosen zur Unterstützung der Vorhersage von solaren Teilchen Ereignissen, (3) Konfiguration des dynamischen Modus in einem belastbaren Multiprozessorsystem. Daher kann das Zielsystem je nach den erkannten und vorhergesagten Strahlungsbedingungen während des Fluges so konfiguriert werden, dass es während unkritischer Zeiträume keine oder nur eine geringe Strahlungsminderung vornimmt. Die redundanten Ressourcen können genutzt werden, um die Systemleistung zu verbessern oder Energie zu sparen. In Zeiten erhöhter Strahlungsaktivität, wie z. B. während SPEs, können die Abschwächungsmethoden dynamisch und in Abhängigkeit von der Echtzeit-Strahlungsumgebung im Weltraum konfiguriert werden, was zu einer höheren Systemzuverlässigkeit führt. Auf diese Weise kann im Zielsystem ein dynamischer Kompromiss zwischen Zuverlässigkeit, Leistung und Stromverbrauch in Echtzeit erreicht werden. Alle Ergebnisse dieser Arbeit wurden in einem hochzuverlässigen Quad-Core-Multiprozessorsystem evaluiert, das die selbstanpassende Einstellung optimaler Strahlungsschutzmechanismen während der Laufzeit ermöglicht. Die vorgeschlagenen Methoden können als Grundlage für die Entwicklung eines umfassenden, selbstanpassenden und belastbaren Systementwurfsprozesses dienen. Die erfolgreiche Implementierung des vorgeschlagenen Entwurfs in einem Quad-Core-Multiprozessor zeigt, dass er auch für andere Entwürfe geeignet ist. KW - single event upset KW - solar particle event KW - machine learning KW - self-adaptive multiprocessing system KW - maschinelles Lernen KW - selbstanpassendes Multiprozessorsystem KW - strahleninduzierte Einzelereignis-Effekte KW - Sonnenteilchen-Ereignis Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583139 ER - TY - THES A1 - Mussil, Stephan T1 - A secret in spite of itself : recursive meaning in Henry James's 'The Figure in the Carpet' Y1 - 2008 SN - 0028-6087 ER - TY - THES A1 - Zhang, Zhuodong T1 - A regional scale study of wind erosion in the Xilingele grassland based on computational fluid dynamics Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Müller, Jürgen J. T1 - A real-time in-memory discovery service Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Marx, Robert T1 - A quantitative model of spatial correlations in parametric down conversion for investigating complementarity at a double slit Y1 - 2016 ER - TY - THES A1 - Gätjen, Dominic T1 - A Pichia pastoris surface display system for the efficient screening of high-producing antibody clones N2 - Pichia pastoris (syn. Komagataella phaffi) is a distinguished expression system widely used in industrial production processes. Recent molecular research has focused on numerous approaches to increase recombinant protein yield in P. pastoris. For example, the design of expression vectors and synthetic genetic elements, gene copy number optimization, or co-expression of helper proteins (transcription factors, chaperones, etc.). However, high clonal variability of transformants and low screening throughput have hampered significant success. To enhance screening capacities, display-based methodologies inherit the potential for efficient isolation of producer clones via fluorescence-activated cell sorting (FACS). Therefore, this study focused on developing a novel clone selection method that is based on the non-covalent attachment of Fab fragments on the P. pastoris cell surface to be applicable for FACS. Initially, a P. pastoris display system was developed, which is a prerequisite for the surface capture of secreted Fabs. A Design of Experiments approach was applied to analyze the influence of various genetic elements on antibody fragment display. The combined P. pastoris formaldehyde dehydrogenase promoter (PFLD1), Saccharomyces cerevisiae invertase 2 signal peptide (ScSUC2), - agglutinin (ScSAG1) anchor protein, and the ARS of Kluyveromyces lactis (panARS) conferred highest display levels. Subsequently, eight single-chain variable fragments (scFv) specific for the constant part of the Fab heavy or light chain were individually displayed in P. pastoris. Among the tested scFvs, the anti-human CH1 IgG domain scFv allowed the most efficient Fab capture detected by flow cytometry. Irrespective of the Fab sequence, exogenously added as well as simultaneously secreted Fabs were successfully captured on the cell surface. Furthermore, Fab secretion capacities were shown to correlate to the level of surface-bound Fabs as demonstrated for characterized producer clones. Flow-sorted clones presenting high amounts of Fabs showed an increase in median Fab titers (factor of 21 to 49) compared to unsorted clones when screened in deep-well plates. For selected candidates, improved functional Fab yields of sorted cells vs. unsorted cells were confirmed in an upscaled shake flask production. Since the scFv capture matrix was encoded on an episomal plasmid with inherently unstable autonomously replicating sequences (ARS), efficient plasmid curing was observed after removing the selective pressure. Hence, sorted clones could be immediately used for production without the need to modify the expression host or vector. The resulting switchable display/secretion system provides a streamlined approach for the isolation of Fab producers and subsequent Fab production. KW - Pichia pastoris KW - Antibody Y1 - 2023 ER - TY - THES A1 - Sánchez-Barriga, Jaime T1 - A photoemission study of quasiparticle excitations, electron-correlation effects and magnetization dynamics in thin magnetic systems T1 - Eine Photoemissionsstudie zu Quasiteilchenanregungen, Elektronenkorrelationseffekten und der Magnetisierungsdynamik in dünnen magnetischen Systemen N2 - This thesis is focused on the electronic, spin-dependent and dynamical properties of thin magnetic systems. Photoemission-related techniques are combined with synchrotron radiation to study the spin-dependent properties of these systems in the energy and time domains. In the first part of this thesis, the strength of electron correlation effects in the spin-dependent electronic structure of ferromagnetic bcc Fe(110) and hcp Co(0001) is investigated by means of spin- and angle-resolved photoemission spectroscopy. The experimental results are compared to theoretical calculations within the three-body scattering approximation and within the dynamical mean-field theory, together with one-step model calculations of the photoemission process. From this comparison it is demonstrated that the present state of the art many-body calculations, although improving the description of correlation effects in Fe and Co, give too small mass renormalizations and scattering rates thus demanding more refined many-body theories including nonlocal fluctuations. In the second part, it is shown in detail monitoring by photoelectron spectroscopy how graphene can be grown by chemical vapour deposition on the transition-metal surfaces Ni(111) and Co(0001) and intercalated by a monoatomic layer of Au. For both systems, a linear E(k) dispersion of massless Dirac fermions is observed in the graphene pi-band in the vicinity of the Fermi energy. Spin-resolved photoemission from the graphene pi-band shows that the ferromagnetic polarization of graphene/Ni(111) and graphene/Co(0001) is negligible and that graphene on Ni(111) is after intercalation of Au spin-orbit split by the Rashba effect. In the last part, a time-resolved x-ray magnetic circular dichroic-photoelectron emission microscopy study of a permalloy platelet comprising three cross-tie domain walls is presented. It is shown how a fast picosecond magnetic response in the precessional motion of the magnetization can be induced by means of a laser-excited photoswitch. From a comparision to micromagnetic calculations it is demonstrated that the relatively high precessional frequency observed in the experiments is directly linked to the nature of the vortex/antivortex dynamics and its response to the magnetic perturbation. This includes the time-dependent reversal of the vortex core polarization, a process which is beyond the limit of detection in the present experiments. N2 - Diese Dissertation beschäftigt sich mit den elektronischen, spinabhängigen und dynamischen Eigenschaften dünner magnetischer Systeme. Auf dem Photoeffekt basierende Untersuchungsmethoden werden zusammen mit Synchrotronstrahlung eingesetzt, um die spinabhängigen Eigenschaften dieser Systeme im Energie- und Zeitbereich zu untersuchen. Im ersten Teil dieser Arbeit wird mit spin- und winkelaufgelöster Photoemission die Stärke von Elektronenkorrelationseffekten in der spinabhängigen elektonischen Struktur von ferromagnetischerm bcc Fe(110) und hcp Co(0001) untersucht. Die experimentellen Ergebnisse werden verglichen mit theoreteischen Berechnungen im Rahmen der Näherung der Drei-Körper-Streuung und der dynamischen Molekularfeldtheorie, zusammen mit Berechnungen des Photoemissionsprozesses im Rahmen des Ein-Stufen-Modells. Ausgehend von diesem Vergleich wird gezeigt, dass die gegenwärtig fortgeschrittensten Rechnung, obgleich sie die Beschreibung von Korrelationseffekten in Fe und Co verbessern, zu kleine Massenrenormalisierungen und Streuraten ergeben, was zu der Forderung nach verfeinerten Vielteilchentheorien unter Einbeziehung von nichtlokalen Fluktuationen führt. Im zweiten Teil wird unter Kontrolle durch die Photoelektronenspektroskopie im Detail gezeigt, wie Graphen durch chemische Gasphasenabscheidung auf den Übergangsmetall-Oberflächen Ni(111) und Co(0001) aufgebracht und mit einer Monolage Au interkaliert werden kann. Für beide Systeme wird eine lineare E(k)-Dispersion masseloser Dirac-Fermionen im Graphen-pi-Band in der Nähe der Fermi-Energie beobachtet. Spinaufgelöste Photoemission des Graphen-pi-Bandes zeigt, dass die ferromagnetische Polarisation von Graphen/Ni(111) und Graphen/Co(0001) vernachlässigbar ist und dass Graphen/Ni(111) nach Interkalation mit Au eine Spin-Bahn-Aufspaltung aufgrund des Rashba-Effekts zeigt. Im letzten Teil wird eine zeitaufgelöste Studie des Röntgenzirkulardichroismus mit Photoelektronenmikroskopie präsentiert, die an einer Permalloy-Probe durchgeführt wurde, die drei als Stachelwände ausgebildete Domänenwände enthält. Es wird gezeigt, wie eine schnelle magnetische Antwort auf der Pikosekundenskala in der Präzessionsbewegung der Magnetisierung durch einen laserangesteuerten Photoschalter erzeugt werden kann. Durch Vergleich mit einer mikromagnetischen Rechnung wird gezeigt, dass die relativ hohe Präzessionsfrequenz, die im Experiment beobachtet wird, in unmittelbarer Beziehung steht zu den Eigenschaften der Vortex/Antivortex-Dynamik und ihrer Antwort auf die magnetische Störung. Das schließt die zeitabhängige Umkehr der Vortexkernpolarisation ein, einem Vorgang der jenseits der Nachweisgrenze der gegenwärtigen Experimente liegt. KW - Spin- und winkelaufgelöste Photoemission KW - Photoelektronenmikroskopie KW - Eisen KW - Kobalt KW - Graphen KW - Rashba-Effekt KW - Spinwellen KW - Synchrotronstrahlung KW - spin- and angle-resolved photoemission KW - photoelectron microscopy KW - iron KW - cobalt KW - graphene KW - Rashba effect KW - spin waves KW - synchrotron radiation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48499 ER - TY - THES A1 - Schönheit, Jörg T1 - A phagocyte-specific Irf8 gene enhancer establishes early conventional dendritic cell commitment T1 - Ein Phagozyten spezifischer Enhancer des Irf8 Gens steuert die Entwicklung konventioneller dendritischer Zellen N2 - Haematopoietic development is a complex process that is strictly hierarchically organized. Here, the phagocyte lineages are a very heterogeneous cell compartment with specialized functions in innate immunity and induction of adaptive immune responses. Their generation from a common precursor must be tightly controlled. Interference within lineage formation programs for example by mutation or change in expression levels of transcription factors (TF) is causative to leukaemia. However, the molecular mechanisms driving specification into distinct phagocytes remain poorly understood. In the present study I identify the transcription factor Interferon Regulatory Factor 8 (IRF8) as the specification factor of dendritic cell (DC) commitment in early phagocyte precursors. Employing an IRF8 reporter mouse, I showed the distinct Irf8 expression in haematopoietic lineage diversification and isolated a novel bone marrow resident progenitor which selectively differentiates into CD8α+ conventional dendritic cells (cDCs) in vivo. This progenitor strictly depends on Irf8 expression to properly establish its transcriptional DC program while suppressing a lineage-inappropriate neutrophile program. Moreover, I demonstrated that Irf8 expression during this cDC commitment-step depends on a newly discovered myeloid-specific cis-enhancer which is controlled by the haematopoietic transcription factors PU.1 and RUNX1. Interference with their binding leads to abrogation of Irf8 expression, subsequently to disturbed cell fate decisions, demonstrating the importance of these factors for proper phagocyte cell development. Collectively, these data delineate a transcriptional program establishing cDC fate choice with IRF8 in its center. N2 - Die Differenzierung von hämatopoietischen Zellen ist ein komplexer Prozess, der strikt hierarchisch organisiert ist. Dabei stellen die Phagozyten eine sehr heterogene Zellpopulation dar, mit hochspezialisierten Funktionen im angeborenen Immunsystem sowie während der Initialisierung der adaptiven Immunreaktion. Ihre Entwicklung, ausgehend von einer gemeinsamen Vorläuferzelle, unterliegt einer strikten Kontrolle. Die Beeinträchtigung dieser Linienentscheidungsprogramme, z.B. durch Mutationen oder Änderungen der Expressionslevel von Transkriptionsfaktoren kann Leukämie auslösen. Die molekularen Mechanismen, welche die linienspezifische Entwicklung steuern, sind allerdings noch nicht im Detail bekannt. In dieser Arbeit zeige ich den maßgeblichen Einfluss des Transkriptionsfaktors Interferon Regulierender Faktor 8 (IRF8) auf die Entwicklung von dendritischen Zellen (DC) innerhalb der Phagozyten. Mittels einer IRF8-Reporter Maus stellte ich die sehr differenziellen Expressionsmuster von Irf8 in der hämatopoietischen Entwicklung dar. Dabei konnte ich eine neue, im Knochenmark lokalisierte, Vorläuferpopulation isolieren, die in vivo spezifisch Differenzierung in CD8α+ konventionelle dendritische Zellen (cDC) steuert. Dieser Vorläufer ist dabei absolut von der Expression von Irf8 abhängig und etabliert auf transkriptioneller Ebene die dendritische Zellentwicklung, während gleichzeitig die Entwicklung neutrophiler Zellen unterdrückt wird. Darüber hinaus zeigte ich, dass Irf8 Expression während der cDC Entwicklung von einem neu charakterisierten cis-regulatorischen Enhancer abhängt, der spezifisch in myeloiden Zellen agiert. Ich konnte zeigen, dass die hämatopoietischen Transkriptionfaktoren PU.1 und RUNX1 mittels dieses Enhancers die Irf8 Expression steuern. Können diese beiden Faktoren nicht mit dem Enhancer interagieren, führt das zu stark verminderter Irf8 Expression, damit zu Veränderungen in den Differnzierungsprogrammen der Zellen, was die Bedeutung dieses regulatorischen Mechanismus unterstreicht. Zusammengefasst beschreiben diese Daten die Etablierung der frühen cDC Entwicklung, in der IRF8 die zentrale Rolle spielt. KW - Hämatopoiese KW - dendritische Zelle KW - Immunologie KW - Transkiptionsfaktor KW - Genregulation KW - haematopoiesis KW - dendritic cell KW - immunology KW - transcription factor KW - gene regulation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55482 ER - TY - THES A1 - D'Agata, Valeria Costanza T1 - A partire dalla Somaestetica di Shusterman T1 - Von der Somästhetik von Shusterman BT - una riflessione sul corpo BT - eine Reflexion über den Körper/Leib N2 - Con la sua proposta di una Somaestetica, articolata fondamentalmente in analitica, pragmatica e pratica, Richard Shusterman intende in primo luogo fornire e creare una cornice metodologica, un orientamento unitario che sia in grado di rintracciare, ricostruire e portare a manifestazione - all’interno di eterogenee riflessioni teoriche e pratiche somatiche - la comune esigenza di ridare luce alla dimensione corporea come modo primario di essere nel mondo. Recuperando l’accezione baumgarteniana di Aesthetica come gnoseologia inferiore, arte dell’analogo della ragione, scienza della conoscenza sensibile, la somaestetica intende dare nuovo impulso alla più profonda radice di estetica e filosofia che coglie la vita nel suo processo di metamorfosi e rigenerazione continua, in quel respiro vitale che, per quanto possa diventare cosciente, non è mai totalmente afferrabile dalla ragione discorsiva, situandosi piuttosto in quello spazio primordiale in cui coscienza e corpo si coappartengono, in cui il soggetto non è ancora individualizzabile perché fuso con l’ambiente, non è totalmente privatizzabile perché intrinsecamente plasmato dal tessuto sociale cui egli stesso conferisce dinamicamente forma. A partire dunque dalla rivalutazione del concetto di Aisthesis la disciplina somaestetica mira ad una intensificazione di sensorialità, percezione, emozione, commozione, rintracciando proprio nel Soma la fonte di quelle facoltà “inferiori” irriducibili a quelle puramente intellettuali, che permettono di accedere alle dimensioni qualitative dell’esperienza, di portare a manifestazione e far maturare l’essere umano come essere indivisibile che non si lascia incontrare da un pensiero che ne rinnega l’unitarietà in nome di fittizie e laceranti distinzioni dicotomiche. Nel corpo infatti si radicano in modo silente regole, convenzioni, norme e valori socioculturali che determinano e talvolta limitano la configurazione ed espressione di sensazioni, percezioni, cognizioni, pensieri, azioni, volizioni, disposizioni di un soggetto da sempre inserito in una Mitwelt (mondo comune), ed è allora proprio al corpo che bisogna rivolgersi per riconfigurare più autentiche modalità di espressione del soggetto che crea equilibri dinamici per mantenere una relazione di coerenza con il più ampio contesto sociale, culturale, ambientale. L’apertura al confronto con eterogenee posizioni filosofiche e l’intrinseca multidisciplinarietà spiegano la centralità nel contemporaneo dibattito estetologico internazionale della Somaestetica che, rivolgendosi tanto ad una formulazione teorica quanto ad una concreta applicazione pratica, intende rivalutare il soma come corporeità intelligente, senziente, intenzionale e attiva, non riducibile all’accezione peccaminosa di caro (mero corpo fisico privo di vita e sensazione). Attraverso la riflessione e la pratica di tecniche di coscienza somatica si portano in primo piano i modi in cui il sempre più consapevole rapporto con la propria corporeità come mediatamente esperita e immediatamente vissuta, sentita, offre occasioni autentiche di realizzazione progressiva di sé innanzitutto come persone, capaci di autocoltivazione, di riflessione cosciente sulle proprie abitudini incorporate, di ristrutturazione creativa di sé, di intensificata percezione e apprezzamento sensoriale sia nel concreto agire quotidiano, sia nella dimensione più propriamente estetologica di ricezione, fruizione e creazione artistica. L’indirizzo essenzialmente pragmatista della riflessione di Shusterman traccia così una concezione fondamentalmente relazionale dell’estetica in grado di porsi proprio nel movimento e nel rapporto continuamente diveniente di vera e propria trasformazione e passaggio tra le dimensioni fisiche, proprio-corporee, psichiche e spirituali del soggetto la cui interazione, ed il cui reciproco riversarsi le une nelle altre, può risultare profondamente arricchito attraverso una progressiva e sempre crescente consapevolizzazione della ricchezza della dimensione corporea in quanto intenzionale, percettiva, senziente, volitiva, tanto quanto vulnerabile, limitante, caduca, patica. Il presente lavoro intende ripercorrere ed approfondire alcuni dei principali referenti di Shusterman, focalizzandosi prevalentemente sulla radice pragmatista della sua proposta e sul confronto con il dibattito di area tedesca tra estetica, antropologia filosofica, neofenomenologia e antropologia medica, per riguadagnare una nozione di soma che proprio a partire dal contrasto, dall’impatto irriducibile con la potenza annullante delle situazioni limite, della crisi possa acquisire un più complesso e ricco valore armonizzante delle intrinseche e molteplici dimensioni che costituiscono il tessuto della soggettività incarnata. In particolare il primo capitolo (1. Somaestetica) chiarisce le radici essenzialmente pragmatiste della proposta shustermaniana e mostra come sia possibile destrutturare e dunque riconfigurare radicati modi di esperienza, rendendo coscienti abitudini e modi di vivere che si fissano a livello somatico in modo per lo più inavvertito. Il confronto con la nozione di Habitus, di cui Pierre Bourdieu mette brillantemente in luce l’invisibile e socialmente determinata matrice somatica, lascia scorgere come ogni manifestazione umana sia sostenuta dall’incorporazione di norme, credenze, valori che determinano e talvolta limitano l’espressione, lo sviluppo, persino le predisposizioni e le inclinazioni degli individui. Ed è proprio intervenendo a questo livello che si può restituire libertà alle scelte e aprirsi così alle dimensioni essenzialmente qualitative dell’esperienza che, nell’accezione deweyana è un insieme olistico unitario e coeso che fa da sfondo alle relazioni organismo-ambiente, un intreccio inestricabile di teoria e prassi, particolare e universale, psiche e soma, ragione ed emozione, percettivo e concettuale, insomma quell’immediata conoscenza corporea che struttura lo sfondo di manifestazione della coscienza. N2 - Mit seinem Vorschlag für eine Somästhetik, grundsätzlich in eine analytische, pragmatische und praktische unterteilt, beabsichtigt Richard Shusterman in erster Linie einen methodischen Rahmen zu bieten und zu schaffen, d. h. einen einheitlichen Ansatz, der in der Lage ist, das gemeinsame Bedürfnis zu verfolgen und ans Licht zu bringen - in heterogenen theoretischen Überlegungen und somatischen Praktiken - die Körper-Leiblichkeit als primäre Art des Seins in der Welt wiederherzustellen. Durch die Wiedergewinnung der Bedeutung der Aesthetica von Baumgarten als gnoseologia inferior, ars analogi rationis, scientia cognitionis sensitiuae1, will die Somaästhetik die tiefste Wurzel der Ästhetik und der Philosophie wieder erneuern, die das Leben in seinem Prozess der ununterbrochenen Metamorphose und Regeneration erfasst, in diesem Atem des Lebens, der, inwieweit er sich dessen bewusst ist, von der diskursiven Vernunft nie ganz begriffen wird, denn er befindet sich vielmehr im Ur- Raum, in dem Bewusstsein und Körperlichkeit zusammengehören, in dem das Subjekt noch nicht individualisierbar ist, weil es mit der Umwelt verschmolzen ist; es ist nicht vollständig privatisierbar, weil es untrennbar von der Sozialstruktur ist, der es selbst dynamisch Form gibt. Von der Neubewertung des Begriffes „Aisthesis“ sucht die somästhetische Disziplin eine Intensivierung der Sinne, der Wahrnehmung, der Emotionen, des Gefühls, um tatsächlich im Soma die Quelle der „minderwertigen“ Fähigkeiten (nicht reduzierbar auf rein intellektuelle) zu verfolgen, die es erlauben, mit den qualitativen Dimensionen der Erfahrung in Kontakt zu treten, den einheitlichen Menschen, der sich nicht dazu eignet, von einem dichotomen Gedanken trennen zu lassen, als unteilbares Wesen aufzudecken und reifen zu lassen. Im Körper schlagen unbewusst Regeln, Konventionen, Normen und sozio-kulturelle Werte Wurzeln, die die Konfiguration und den Ausdruck von Gefühlen, Wahrnehmungen, Wissen, Denken, Handeln, Willensakten, Bestimmungen von einem Subjekt, das seit jeher in eine Mitwelt eingefügt ist, bestimmen und manchmal begrenzen. Daraus folgt, dass wir unsere Aufmerksamkeit auf den Körper richten sollen, um die authentischste Ausdrucksweise des Subjekts, das ein dynamisches Gleichgewicht schafft, um eine Beziehung der Kohärenz mit der breiteren sozialen, kulturellen, ökologischen Kontext zu halten, neu zu konfigurieren. Die Öffnung für den Vergleich mit heterogenen philosophischen Positionen und dem inhärenten multidisziplinären Charakter2 erklärt die Zentralität der Somästhetik in der zeitgenössischen internationalen ästhetischen Debatte: durch eine theoretische Formulierung und eine konkrete praktische Anwendung beabsichtigt sie Soma neu zu bewerten, als intelligente, fühlende, vorsätzliche und aktive Körperlichkeit, nicht reduzierbar auf die sündige Bedeutung von caro (der bloße physische Körper, ohne Leben und Empfindungen). Durch Reflexion und Praxis der Techniken des Körperbewusstseins rücken die Modalitäten in den Vordergrund, in denen das stets bewusstere Verhältnis zu der eigenen Leiblichkeit, als mittelbar erlebt und unmittelbar gelebt, gefühlt wird, authentische Chancen für die progressive Realisierung des eigenen Ich bietet, d. h. zuallererst als Personen, die in der Lage sind, Selbst-Sorge zu tragen, die wissen, wie sie bewusst über ihre eigenen verkörperten Gewohnheiten reflektieren können, wie sie kreativ das Selbst umstrukturieren können, wie sie eine Intensivierung der Wahrnehmung und der sinnlichen Wertschätzung sowohl in konkreten täglichen Handlungen, als auch in der spezifischeren ästhetischen Dimension des künstlerischen Schaffens und Genießens erleben können3. Die wesentliche pragmatische Richtung der Reflexion von Shusterman umreißt eine grundlegend relationale Betrachtung der Ästhetik, die in der Lage ist, sich direkt in der Bewegung und in der sich ständig verändernden Beziehung der wirklichen Transformation und des Übergangs zwischen den körperlichen, leiblichen, mentalen und spirituellen Aspekten des Subjektes anzusiedeln. Die Interaktion zwischen diesen Dimensionen, die aufeinander verweisen, kann tief durch ein fortschreitendes und wachsendes Bewusstsein des Reichtums der leiblichen Dimension als absichtlich, wahrnehmend, fühlend, wollend, so wie vergänglich, verletzlich, einschränkend, pathisch angereichert werden. Die vorliegende Arbeit will auf einige der wichtigsten Themen, auf die sich Shusterman bezieht, eingehen und vertiefen, insbesondere die pragmatische Wurzel seines Vorschlags und der Vergleich mit der deutschen Debatte zur Ästhetik, philosophischen Anthropologie, medizinischen Anthropologie und neuen Phänomenologie, um wieder eine Vorstellung von Soma zu bekommen, beginnend von dem Kontrast, von der Wirkung mit der Kraft der unnachgiebigen Aufhebung und extremer Krisensituationen, eine komplexe und reiche Harmonisierung der inneren Werte und der vielfältigen Dimensionen, die das Gewebe der verkörperten Subjektivität bilden. Vor allem das erste Kapitel (1. Somaestetica - Somästhetik) verdeutlicht die Wurzeln des im wesentlichen pragmatischen Vorschlags von Shusterman und zeigt, wie es möglich ist, verwurzelte Erlebnisweisen zu dekonstruieren und neu zu konfigurieren, um Gewohnheiten und Lebensweisen, die sich auf der somatischen Ebene in den meisten Fällen unbemerkt ansiedeln, bewusst zu machen. Der Vergleich mit dem Begriff des Habitus, den Pierre Bourdieu brillant anstellt, beleuchtet den unsichtbaren und sozial bestimmten somatischen Ursprung; er lässt erkennen, wie jede menschliche Äußerung durch die Verkörperung von Normen, Überzeugungen und Werte unterstützt wird, wie diese Regeln den Ausdruck, die Entwicklung und auch die Veranlagungen und Neigungen des Einzelnen bestimmen und manchmal begrenzen. Und es ist durch ein Eingreifen eben auf dieser Ebene möglich, die Freiheit an Wahlen zurückzugeben und sich den wesentlich qualitativen Dimensionen der Erfahrung zu öffnen, die (im Sinne von Dewey) eine ganzheitliche und zusammenhängende Einheit als ein Hintergrund der Organismus-Umwelt-Beziehungen ist, d. h. eine unentwirrbare Verwicklung von Theorie und Praxis, im besonderen und im allgemeinen, Psyche und Soma, Vernunft und Gefühl, wahrnehmend und begriffsmäßig, kurz das unmittelbare körper-leibliche Wissen, das den Hintergrund für die Bewusstseinsäußerung bildet. KW - corpo fisico e corpo vissuto KW - avere ed essere corpo KW - Somaestetica KW - Somästhetik KW - Körper-Leib Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72650 ER - TY - THES A1 - Tabares Jimenez, Ximena del Carmen T1 - A palaeoecological approach to savanna dynamics and shrub encroachment in Namibia N2 - The spread of shrubs in Namibian savannas raises questions about the resilience of these ecosystems to global change. This makes it necessary to understand the past dynamics of the vegetation, since there is no consensus on whether shrub encroachment is a new phenomenon, nor on its main drivers. However, a lack of long-term vegetation datasets for the region and the scarcity of suitable palaeoecological archives, makes reconstructing past vegetation and land cover of the savannas a challenge. To help meet this challenge, this study addresses three main research questions: 1) is pollen analysis a suitable tool to reflect the vegetation change associated with shrub encroachment in savanna environments? 2) Does the current encroached landscape correspond to an alternative stable state of savanna vegetation? 3) To what extent do pollen-based quantitative vegetation reconstructions reflect changes in past land cover? The research focuses on north-central Namibia, where despite being the region most affected by shrub invasion, particularly since the 21st century, little is known about the dynamics of this phenomenon. Field-based vegetation data were compared with modern pollen data to assess their correspondence in terms of composition and diversity along precipitation and grazing intensity gradients. In addition, two sediment cores from Lake Otjikoto were analysed to reveal changes in vegetation composition that have occurred in the region over the past 170 years and their possible drivers. For this, a multiproxy approach (fossil pollen, sedimentary ancient DNA (sedaDNA), biomarkers, compound specific carbon (δ13C) and deuterium (δD) isotopes, bulk carbon isotopes (δ13Corg), grain size, geochemical properties) was applied at high taxonomic and temporal resolution. REVEALS modelling of the fossil pollen record from Lake Otjikoto was run to quantitatively reconstruct past vegetation cover. For this, we first made pollen productivity estimates (PPE) of the most relevant savanna taxa in the region using the extended R-value model and two pollen dispersal options (Gaussian plume model and Lagrangian stochastic model). The REVEALS-based vegetation reconstruction was then validated using remote sensing-based regional vegetation data. The results show that modern pollen reflects the composition of the vegetation well, but diversity less well. Interestingly, precipitation and grazing explain a significant amount of the compositional change in the pollen and vegetation spectra. The multiproxy record shows that a state change from open Combretum woodland to encroached Terminalia shrubland can occur over a century, and that the transition between states spans around 80 years and is characterized by a unique vegetation composition. This transition is supported by gradual environmental changes induced by management (i.e. broad-scale logging for the mining industry, selective grazing and reduced fire activity associated with intensified farming) and related land-use change. Derived environmental changes (i.e. reduced soil moisture, reduced grass cover, changes in species composition and competitiveness, reduced fire intensity) may have affected the resilience of Combretum open woodlands, making them more susceptible to change to an encroached state by stochastic events such as consecutive years of precipitation and drought, and by high concentrations of pCO2. We assume that the resulting encroached state was further stabilized by feedback mechanisms that favour the establishment and competitiveness of woody vegetation. The REVEALS-based quantitative estimates of plant taxa indicate the predominance of a semi-open landscape throughout the 20th century and a reduction in grass cover below 50% since the 21st century associated with the spread of encroacher woody taxa. Cover estimates show a close match with regional vegetation data, providing support for the vegetation dynamics inferred from multiproxy analyses. Reasonable PPEs were made for all woody taxa, but not for Poaceae. In conclusion, pollen analysis is a suitable tool to reconstruct past vegetation dynamics in savannas. However, because pollen cannot identify grasses beyond family level, a multiproxy approach, particularly the use of sedaDNA, is required. I was able to separate stable encroached states from mere woodland phases, and could identify drivers and speculate about related feedbacks. In addition, the REVEALS-based quantitative vegetation reconstruction clearly reflects the magnitude of the changes in the vegetation cover that occurred during the last 130 years, despite the limitations of some PPEs. This research provides new insights into pollen-vegetation relationships in savannas and highlights the importance of multiproxy approaches when reconstructing past vegetation dynamics in semi-arid environments. It also provides the first time series with sufficient taxonomic resolution to show changes in vegetation composition during shrub encroachment, as well as the first quantitative reconstruction of past land cover in the region. These results help to identify the different stages in savanna dynamics and can be used to calibrate predictive models of vegetation change, which are highly relevant to land management. N2 - Die Ausbreitung von Sträuchern in der namibischen Savanne wirft Fragen nach der Resilienz dieser Ökosysteme gegenüber globalen Veränderungen auf. Dies macht es notwendig, die Vegetationsdynamik in der Vergangenheit zu verstehen, da kein Konsens darüber besteht, ob die Verbuschung ein neues Phänomen ist oder über ihre Haupttreiber. Aufgrund des Mangels an Langzeitvegetationsdatensätzen für die Region und des Mangels an geeigneten paläoökologischen Archiven bleibt die Rekonstruktion der früheren Vegetation und der früheren Landbedeckung der Savannen eine Herausforderung. In diesem Zusammenhang befasst sich diese Studie mit drei Hauptforschungsfragen: 1) Ist Pollenanalyse ein geeignetes Instrument, um die Veränderung der Vegetation widerzuspiegeln, die mit der Verbuschung von Savannen verbunden ist? 2) Entspricht die derzeitige verbuschte Landschaft einem stabilen Zustand der Savannenvegetation? 3) Inwieweit entspricht die quantitative Rekonstruktion der Vegetation auf der Grundlage fossiler Pollendaten der früheren Vegetationsbedeckung der Savanne? Um diese Fragen zu beantworten, konzentrierte sich diese Forschung auf Nord-Zentral-Namibia, da diese Region insbesondere seit dem 21. Jahrhundert am stärksten von Verbuschung betroffen ist, über die Dynamik dieses Phänomens in der Region ist jedoch wenig bekannt. Im Rahmen dieser Studie wurden feldbasierte Vegetationsdaten mit modernen Pollendaten verglichen, um das Potenzial moderner Pollen zu bewerten, die Vegetationszusammensetzung und -vielfalt entlang von Niederschlags- und Weideintensitätsgradienten widerzuspiegeln. Zusätzlich wurden zwei Sedimentkerne aus dem Otjikoto-See analysiert, um die Veränderungen der Vegetationszusammensetzung in der Region in den letzten 170 Jahren und ihre möglichen Treiber zu dokumentieren. Hierzu wurde ein Multiproxy-Ansatz (fossiler Pollen, sedimentäre alte DNA, Biomarker, verbindungsspezifische Kohlenstoff- (δ13C) und Deuterium- (δD) Isotope, Kohlenstoff-Isotope (δ13Corg), Korngröße, geochemische Eigenschaften) mit hoher taxonomischer und zeitlicher Auflösung angewendet. Schließlich wurde der REVEALS-Ansatz auf den fossilen Pollendata des Otjikoto-Sees angewendet, um die Vegetationsbedeckung der Vergangenheit quantitativ zu rekonstruieren. Dazu wurden zunächst die Pollenproduktivitätsschätzungen (PPE) der relevantesten Savannentaxa in der Region unter Verwendung des erweiterten R-Wert-Modells und zweier Pollenausbreitungsmodelle (Gaußsches Federmodell und Lagrange-Stochastikmodell) berechnet. Die auf REVEALS basierende Vegetationsrekonstruktion wurde dann unter Verwendung von auf Fernerkundung basierenden regionalen Vegetationsdaten validiert. Die Ergebnisse zeigen, dass moderner Pollen die Zusammensetzung der Vegetation gut widerspiegelt, jedoch weniger die Diversität. Interessanterweise machen Niederschlag und Beweidung einen signifikanten, aber geringen Anteil der Änderung der Zusammensetzung in den Pollen- und Vegetationsspektren aus. Die Multiproxy-Analyse zeigt, dass ein Zustandswechsel von der offenen Combretum Baumsavanne zum Terminalia Buschland über ein Jahrhundert stattfinden kann und dass der Übergang zwischen den beiden Zuständen etwa 80 Jahre dauert und durch eine einzigartige Vegetationszusammensetzung gekennzeichnet ist. Dieser Übergang wird durch allmähliche Umweltveränderungen unterstützt, die durch das Management (z.B. großflächige Abholzung für den Bergbau sowie selektive Beweidung und verringerte Feueraktivität verbunden mit intensivierter Landwirtschaft) und damit verbundene Landnutzungsänderungen hervorgerufen werden. Abgeleitete Umweltveränderungen (z.B. verringerte Bodenfeuchtigkeit, verringerte Grasbedeckung, Änderungen der Artenzusammensetzung und Konkurrenzfähigkeit, verringerte Feuerintensität) können die Resilienz der offenen Combretum Baumsavanne beeinträchtigt haben und sie anfälliger machen, durch stochastische Ereignisse wie aufeinanderfolgende niederschlagsreiche Jahre, Dürre, und durch hohe Konzentrationen von pCO2, in einen verbuschten Zustand zu wechseln. Der daraus resultierende verbuschte Zustand wird durch Rückkopplungsmechanismen aufrechterhalten, welche die Etablierung und Konkurrenzfähigkeit der Holzvegetation begünstigen. Schließlich deuten die auf REVEALS basierenden Deckungsschätzungen auf das Vorherrschen einer halboffenen Landschaft während des gesamten 20. Jahrhunderts und eine Verringerung der Grasbedeckung unter 50% seit dem 21. Jahrhundert hin, die mit der Verbreitung von Verbuschungstaxa verbunden ist. Deckungsschätzungen zeigen eine enge Übereinstimmung mit regionalen Vegetationsdaten, wodurch die aus der Multi-Proxy-Analyse abgeleitete Vegetationsdynamik bestätigt werden kann. Die PPE-Berechnung war für alle holzigen Taxa erfolgreich, für Poaceae jedoch fehlgeschlagen. Zusammenfassend ist die Pollenanalyse ein geeignetes Instrument zur Rekonstruktion der Vegetationsdynamik in Savannen. Aufgrund der geringen taxonomischen Auflösung von Pollen zur Identifizierung von Gräsern ermöglicht ein Multiproxy-Ansatz, insbesondere die Verwendung von sedaDNA, die Unterscheidung stabiler verbuschte Zustände von bloßen Waldphasen sowie die Identifizierung von Auslösern und Treibern von Zustandsänderungen. Darüber hinaus spiegelt die auf REVEALS basierende quantitative Vegetationsrekonstruktion trotz der Einschränkungen bei der Berechnung von PPEs deutlich das Ausmaß der Veränderungen in der Vegetationsbedeckung wider, die in den letzten 130 Jahren aufgetreten sind. Diese Forschung liefert neue Einblicke in die Pollen-Vegetations-Beziehungen in Savannen und unterstreicht die Bedeutung von Multiproxy-Ansätzen zur Rekonstruktion der Vegetationsdynamik in semi-ariden Landschaften. Es bietet auch die erste Zeitreihe mit ausreichender taxonomischer Auflösung, um die Veränderungen der Vegetationszusammensetzung im Verlauf der Verbuschung sowie die erste quantitative Rekonstruktion der früheren Landbedeckung in der Region aufzuzeigen. Diese Ergebnisse können dazu beitragen, die verschiedenen Stadien der Savannendynamik besser zu identifizieren, und können auch zur Kalibrierung von Vorhersagemodellen für Vegetationsänderungen verwendet werden, die für die Landbewirtschaftung von großem Wert sind. T2 - Ein paläoökologischer Ansatz zur Savannendynamik und Verbuschung in Namibia KW - savanna ecology KW - pollen KW - sedaDNA KW - REVEALS KW - state-transition models KW - Savannen-Ökologie KW - REVEALS KW - sedimentäre alte DNA KW - Pollen KW - Pollenproduktivitätsschätzungen KW - Zustands-Übergangs-Modelle Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-492815 ER - TY - THES A1 - Gebauer, Denis T1 - A novel view on the early stage of crystallization T1 - Ein Neuartiges Bild der frühen Kristallisationsphase N2 - This thesis provides a novel view on the early stage of crystallization utilizing calcium carbonate as a model system. Calcium carbonate is of great economical, scientific and ecological importance, because it is a major part of water hardness, the most abundant Biomineral and forms huge amounts of geological sediments thus binding large amounts of carbon dioxide. The primary experiments base on the evolution of supersaturation via slow addition of dilute calcium chloride solution into dilute carbonate buffer. The time-dependent measurement of the Ca2+ potential and concurrent pH = constant titration facilitate the calculation of the amount of calcium and carbonate ions bound in pre-nucleation stage clusters, which have never been detected experimentally so far, and in the new phase after nucleation, respectively. Analytical Ultracentrifugation independently proves the existence of pre-nucleation stage clusters, and shows that the clusters forming at pH = 9.00 have a proximately time-averaged size of altogether 70 calcium and carbonate ions. Both experiments show that pre-nucleation stage cluster formation can be described by means of equilibrium thermodynamics. Effectively, the cluster formation equilibrium is physico-chemically characterized by means of a multiple-binding equilibrium of calcium ions to a ‘lattice’ of carbonate ions. The evaluation gives GIBBS standard energy for the formation of calcium/carbonate ion pairs in clusters, which exhibits a maximal value of approximately 17.2 kJ mol^-1 at pH = 9.75 and relates to a minimal binding strength in clusters at this pH-value. Nucleated calcium carbonate particles are amorphous at first and subsequently become crystalline. At high binding strength in clusters, only calcite (the thermodynamically stable polymorph) is finally obtained, while with decreasing binding strength in clusters, vaterite (the thermodynamically least stable polymorph) and presumably aragonite (the thermodynamically intermediate stable polymorph) are obtained additionally. Concurrently, two different solubility products of nucleated amorphous calcium carbonate (ACC) are detected at low binding strength and high binding strength in clusters (ACC I 3.1EE-8 M^2, ACC II 3.8EE-8 M^2), respectively, indicating the precipitation of at least two different ACC species, while the clusters provide the precursor species of ACC. It is proximate that ACC I may relate to calcitic ACC –i.e. ACC exhibiting short range order similar to the long range order of calcite and that ACC II may relate to vateritic ACC, which will subsequently transform into the particular crystalline polymorph as discussed in the literature, respectively. Detailed analysis of nucleated particles forming at minimal binding strength in clusters (pH = 9.75) by means of SEM, TEM, WAXS and light microscopy shows that predominantly vaterite with traces of calcite forms. The crystalline particles of early stages are composed of nano-crystallites of approximately 5 to 10 nm size, respectively, which are aligned in high mutual order as in mesocrystals. The analyses of precipitation at pH = 9.75 in presence of additives –polyacrylic acid (pAA) as a model compound for scale inhibitors and peptides exhibiting calcium carbonate binding affinity as model compounds for crystal modifiers- shows that ACC I and ACC II are precipitated in parallel: pAA stabilizes ACC II particles against crystallization leading to their dissolution for the benefit of crystals that form from ACC I and exclusively calcite is finally obtained. Concurrently, the peptide additives analogously inhibit the formation of calcite and exclusively vaterite is finally obtained in case of one of the peptide additives. These findings show that classical nucleation theory is hardly applicable for the nucleation of calcium carbonate. The metastable system is stabilized remarkably due to cluster formation, while clusters forming by means of equilibrium thermodynamics are the nucleation relevant species and not ions. Most likely, the concept of cluster formation is a common phenomenon occurring during the precipitation of hardly soluble compounds as qualitatively shown for calcium oxalate and calcium phosphate. This finding is important for the fundamental understanding of crystallization and nucleation-inhibition and modification by additives with impact on materials of huge scientific and industrial importance as well as for better understanding of the mass transport in crystallization. It can provide a novel basis for simulation and modelling approaches. New mechanisms of scale formation in Bio- and Geomineralization and also in scale inhibition on the basis of the newly reported reaction channel need to be considered. N2 - Die vorliegende Arbeit zeichnet ein neuartiges Bild der frühen Kristallisationsphase von Calciumcarbonat. Calciumcarbonat hat als Hauptbestandteil der Wasserhärte und als weit verbreitetes Biomineral und Geomineral, das als Sediment in den Ozeanen große Mengen Kohlendioxid bindet, große Bedeutung. Die grundlegenden Experimente basieren auf der sehr langsamen Einstellung von Übersättigung, die durch langsame Zugabe verdünnter Calciumlösung in verdünnten Carbonatpuffer erreicht wird. Zeitabhängige Messung des Ca2+ Potentials bei gleichzeitiger pH = konstant Titration zeigt, dass zeitgemittelt vor der Nukleation gleiche Stoffmengen von Calcium- und Carbonat Ionen in Clustern gebunden sind, die bis jetzt noch nicht experimentell nachgewiesen werden konnten. Analytische Ultrazentrifugation belegt unabhängig die Existenz der Cluster, und es zeigt sich, dass sich die bei pH = 9,00 bildenden Cluster zeitgemittelt aus insgesamt etwa 70 Calcium und Carbonat Ionen bestehen. Die Experimente weisen darauf hin, dass sich die Clusterbildung auf der Grundlage von Gleichgewichtsthermodynamik beschreiben lässt. Ein multiples Bindungsgleichgewichtsmodell ermöglicht die Bestimmung der freien Standard Reaktionsenthalpie für die Bildung von Calcium/Carbonat Ionenpaaren in den Clustern, die ein Maß für die Bindungsstärke in Clustern darstellt. Die Bindungsstärke weist ein Minimum bei pH = 9,75 auf, und es zeigt sich, dass außerhalb dieses Minimums amorphes Calciumcarbonat ausfällt, das sich letztendlich in Calcit (das thermodynamisch stabile Calciumcarbonat Polymorph) umwandelt, während im Minimum und in der Nähe des Minimums amorphes Calciumcarbonat ausfällt, das sich letztendlich hauptsächlich in Vaterit (das thermodynamisch am wenigsten stabile Polymorph), Calcit und möglicherweise Spuren von Aragonit (das Polymorph mittlerer Stabilität) umwandelt. Gleichzeitig treten zwei unterschiedliche Löslichkeitsprodukte für das bei hoher und niedriger Bindungsstärke in Clustern ausgefällte, amorphe Calciumcarbonat auf (ACC I 3,1EE-8 M^2, ACC II 3,8EE-8 M^2). Das zeigt, dass die sich vor der Nukleation bildenden Cluster Vorläuferspezies (Precursor) des ausgefällten, amorphen Calciumcarbonats darstellen, wobei ACC I in der Literatur diskutiertem, calcitischem ACC entsprechen und ACC II vateritischem Calcit entsprechen kann. Eine detaillierte SEM, TEM, WAXS und Lichtmikroskopie Untersuchung der bei minimaler Bindungsstärke in Clustern (pH = 9,75) ausgefällten Partikel zeigt, dass sich hauptsächlich Vaterit mit Spuren von Calcit und möglicherweise Aragonit bildet. Die sich früh bildenden, kristallinen Partikel sind jeweils aus nano-Kristalliten von etwa 5 bis 10 nm Größe aufgebaut, die wie in Mesokristallen eine hohe wechselseitige Ordnung aufweisen. Die Untersuchung der frühen Kristallisation in Gegenwart von Additiven wurde ebenfalls bei minimaler Bindungsstärke in Clustern durchgeführt. Als Additive wurden Polyacrylsäure (PAA) als Beispiel für einen Hemmstoff gegen die Bildung von Verkalkungen und drei Peptide, die Bindungsaffinität zu Calciumcarbonat zeigen, als Beispiel für Kristallisations-Modifikatoren untersucht. Die Analyse zeigt, dass ACC I und ACC II parallel ausfallen; pAA stabilisiert ACC II gegenüber Kristallisation und führt dazu, dass es sich zugunsten von Kristallen, die sich aus ACC I bilden, auflöst, wobei letztendlich reines Calcit erhalten wird. Die Peptide hingegen hemmen die Bildung von Calcit in analoger Weise, wobei in einem Fall letztendlich reines Vaterit entsteht. Die Ergebnisse zeigen, dass die klassische Nukleationstheorie auf die Nukleation von Calciumcarbonat kaum anwendbar ist. Das metastabile System wird durch die Clusterbildung deutlich stabilisiert, und nicht Ionen, sondern Cluster sind die relevanten Spezies in der Nukleation. Wahrscheinlich ist das gefundene Konzept der Clusterbildung ein allgemeines Phänomen, das während der Kristallisation aller schwer löslichen Substanzen auftritt, da es auch für Calciumoxalat und Calciumphosphat qualitativ gezeigt werden konnte. Das Ergebnis ist wichtig für das fundamentale Verständnis der Nukleation, von Nukleationshemmung und der Modifikation von Kristallen mit Auswirkungen auf Materialen von großer industrieller und auch wissenschaftlicher Bedeutung. Ferner gibt es einen Hinweis, wie Masse während der Kristallisation –auch in Lebewesen transportiert werden kann und es kann einen neuen Ansatz für Kristallisationssimulationen liefern. Auf der Basis dieses neuartigen Reaktionskanals müssen neue Kristallisations-Mechanismen in Bio- und Geomineralization in Betracht gezogen werden. KW - Calciumcarbonat KW - Kristallisation KW - Nukleation KW - Cluster KW - Additive KW - calcium carbonate KW - crystallization KW - nucleation KW - clusters KW - additives Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-19818 ER - TY - THES A1 - Wang, Ting T1 - A novel R2R3 MYB-like transcription factor regulates ABA mediated stress response and leaf growth in Arabidopsis Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Rudolph-Mohr, Nicole T1 - A novel non-invasive optical method for quantitative visualization of pH and oxygen dynamics in soils T1 - Entwicklung einer neuen, nicht invasiven, optischen Methode für die quantitative Darstellung von pH und Sauerstoffdynamiken in Böden N2 - In soils and sediments there is a strong coupling between local biogeochemical processes and the distribution of water, electron acceptors, acids and nutrients. Both sides are closely related and affect each other from small scale to larger scales. Soil structures such as aggregates, roots, layers or macropores enhance the patchiness of these distributions. At the same time it is difficult to access the spatial distribution and temporal dynamics of these parameter. Noninvasive imaging techniques with high spatial and temporal resolution overcome these limitations. And new non-invasive techniques are needed to study the dynamic interaction of plant roots with the surrounding soil, but also the complex physical and chemical processes in structured soils. In this study we developed an efficient non-destructive in-situ method to determine biogeochemical parameters relevant to plant roots growing in soil. This is a quantitative fluorescence imaging method suitable for visualizing the spatial and temporal pH changes around roots. We adapted the fluorescence imaging set-up and coupled it with neutron radiography to study simultaneously root growth, oxygen depletion by respiration activity and root water uptake. The combined set up was subsequently applied to a structured soil system to map the patchy structure of oxic and anoxic zones induced by a chemical oxygen consumption reaction for spatially varying water contents. Moreover, results from a similar fluorescence imaging technique for nitrate detection were complemented by a numerical modeling study where we used imaging data, aiming to simulate biodegradation under anaerobic, nitrate reducing conditions. N2 - In Böden und Sedimenten sind biogeochemische Prozesse und die Verteilung von Größen wie Wasser, Elektronenakzeptoren, Säuregehalte und Nährstoffe in enger Weise miteinander gekoppelt. Diese wechselseitige Beeinflussung ist skalenübergreifend und reicht von sehr kleinen bis zu größeren Skalen. Die in realen Böden vorhandene Struktur z. Bsp. Aggregate, Pflanzenwurzeln, Schichten und Makroporen bedingen eine starke räumlich Heterogenität und zeitliche Dynamik dieser Größen. Gleichzeitig sind Verteilung und Dynamik sehr schwer zu beobachten, zumindest ohne ihre gleichzeitige Störung. Bildgebende Verfahren bieten eine sehr gute räumliche und zeitliche Auflösung und ermöglichen die Darstellung dieser Größen. Um die dynamische Wechselwirkung zwischen Pflanzenwurzeln und Boden, aber auch die komplexen physikalisch – chemischen Prozesse in Böden zu verstehen, sind neue bildgebende Verfahren notwendig. Ziel dieser Arbeit war es, eine neue nicht-invasive Methode zu entwickeln, die es ermöglicht biogeochemische Parameter in der Wurzelzone zu visualisieren. Innerhalb dieser Studie wurde ein quantitatives bildgebendes Verfahren entwickelt, dass die räumlichen und zeitlichen Dynamiken des pH Wertes in der Rhizosphäre erfasst. Diese auf Fluoreszenzemissionen basierende Methode wurde ebenso für Sauerstoffdetektion entwickelt und mit Neutronen Radiographie kombiniert um gleichzeitig Aussagen über Wurzelwachstum, Sauerstoffzehrung durch Wurzelatmung und Wurzelwasseraufnahme treffen zu können. Die kombinierte bildgebende Methode wurde dann in einem künstlichen Boden genutzt um Nischen und Übergangsbereiche von Sauerstoff bei variierenden Wassergehalten zu charakterisieren. Das große Potential von bildgebenden Verfahren zeigt sich bei Modellierungsstudien. In dieser Studie wurden Bilddaten als Eingabeparameter für die Simulierung von denitrifizierendem biologischem Schadstoffabbau genutzt. KW - Optische Sensoren KW - pH KW - Sauerstoff KW - Fluoreszenzbildgebung KW - Rhizosphere KW - Optical sensor KW - pH KW - oxygen KW - fluorescence imaging KW - rhizosphere Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66993 ER - TY - THES A1 - Rackwitz, Jenny T1 - A novel approach to study low-energy electron-induced damage to DNA oligonucleotides BT - Influence of DNA sequence, topology and nucleobase modification Y1 - 2016 ER - TY - THES A1 - Pellizzer, Tommaso T1 - A novel approach to identify plastidic factors for plastome genome incompatibility and evidence for the central involvement of the chloroplast in leaf shaping Y1 - 2016 ER - TY - THES A1 - Falter, Daniela T1 - A novel approach for large-scale flood risk assessments T1 - Ein neuartiger Ansatz für großskalige Hochwasserrisikoanalysen BT - continuous and long-term simulation of the full flood risk chain BT - kontinuierliche Langzeitsimulation der gesamten Hochwasserrisikokette N2 - In the past, floods were basically managed by flood control mechanisms. The focus was set on the reduction of flood hazard. The potential consequences were of minor interest. Nowadays river flooding is increasingly seen from the risk perspective, including possible consequences. Moreover, the large-scale picture of flood risk became increasingly important for disaster management planning, national risk developments and the (re-) insurance industry. Therefore, it is widely accepted that risk-orientated flood management ap-proaches at the basin-scale are needed. However, large-scale flood risk assessment methods for areas of several 10,000 km² are still in early stages. Traditional flood risk assessments are performed reach wise, assuming constant probabilities for the entire reach or basin. This might be helpful on a local basis, but where large-scale patterns are important this approach is of limited use. Assuming a T-year flood (e.g. 100 years) for the entire river network is unrealistic and would lead to an overestimation of flood risk at the large scale. Due to the lack of damage data, additionally, the probability of peak discharge or rainfall is usually used as proxy for damage probability to derive flood risk. With a continuous and long term simulation of the entire flood risk chain, the spatial variability of probabilities could be consider and flood risk could be directly derived from damage data in a consistent way. The objective of this study is the development and application of a full flood risk chain, appropriate for the large scale and based on long term and continuous simulation. The novel approach of ‘derived flood risk based on continuous simulations’ is introduced, where the synthetic discharge time series is used as input into flood impact models and flood risk is directly derived from the resulting synthetic damage time series. The bottleneck at this scale is the hydrodynamic simu-lation. To find suitable hydrodynamic approaches for the large-scale a benchmark study with simplified 2D hydrodynamic models was performed. A raster-based approach with inertia formulation and a relatively high resolution of 100 m in combination with a fast 1D channel routing model was chosen. To investigate the suitability of the continuous simulation of a full flood risk chain for the large scale, all model parts were integrated into a new framework, the Regional Flood Model (RFM). RFM consists of the hydrological model SWIM, a 1D hydrodynamic river network model, a 2D raster based inundation model and the flood loss model FELMOps+r. Subsequently, the model chain was applied to the Elbe catchment, one of the largest catchments in Germany. For the proof-of-concept, a continuous simulation was per-formed for the period of 1990-2003. Results were evaluated / validated as far as possible with available observed data in this period. Although each model part introduced its own uncertainties, results and runtime were generally found to be adequate for the purpose of continuous simulation at the large catchment scale. Finally, RFM was applied to a meso-scale catchment in the east of Germany to firstly perform a flood risk assessment with the novel approach of ‘derived flood risk assessment based on continuous simulations’. Therefore, RFM was driven by long term synthetic meteorological input data generated by a weather generator. Thereby, a virtual time series of climate data of 100 x 100 years was generated and served as input to RFM providing subsequent 100 x 100 years of spatially consistent river discharge series, inundation patterns and damage values. On this basis, flood risk curves and expected annual damage could be derived directly from damage data, providing a large-scale picture of flood risk. In contrast to traditional flood risk analysis, where homogenous return periods are assumed for the entire basin, the presented approach provides a coherent large-scale picture of flood risk. The spatial variability of occurrence probability is respected. Additionally, data and methods are consistent. Catchment and floodplain processes are repre-sented in a holistic way. Antecedent catchment conditions are implicitly taken into account, as well as physical processes like storage effects, flood attenuation or channel–floodplain interactions and related damage influencing effects. Finally, the simulation of a virtual period of 100 x 100 years and consequently large data set on flood loss events enabled the calculation of flood risk directly from damage distributions. Problems associated with the transfer of probabilities in rainfall or peak runoff to probabilities in damage, as often used in traditional approaches, are bypassed. RFM and the ‘derived flood risk approach based on continuous simulations’ has the potential to provide flood risk statements for national planning, re-insurance aspects or other questions where spatially consistent, large-scale assessments are required. N2 - In der Vergangenheit standen bei der Betrachtung von Hochwasser insbesondere technische Schutzmaßnahmen und die Reduzierung der Hochwassergefahr im Mittelpunkt. Inzwischen wird Hochwasser zunehmend aus der Risikoperspektive betrachtet, d.h. neben der Gefährdung werden auch die Auswirkungen berücksichtigt. In diesem Zuge wurde auch die Notwendigkeit von großräumigen Hochwasserrisikoanalysen für das Management von Naturgefahren und als Planungsgrundlage auf nationaler Ebene sowie für die Rückversicherungsindustrie erkannt. Insbesondere durch die Einführung der Europäischen Hochwasserrisikomanagement Richtlinie sind risikoorientierte Managementpläne auf Einzugsgebietsebene obligatorisch. Allerdings befinden sich großräumige Hochwasserrisikoanalysen von mehreren 10.000 km², noch in den Anfängen. Traditionell werden Hochwasserrisikoanalysen für Gewässerabschnitte durchgeführt, wobei homogene Wiederkehrintervalle für das ganze Untersuchungsgebiet angenommen werden. Für lokale Fragestellungen ist diese Vorgehensweise sinnvoll, dies gilt allerdings nicht für die großräumige Analyse des Hochwasserrisikos. Die Annahme eines beispielsweise 100-jährigen Hochwassers im gesamten Gebiet ist unrealistisch und das Hochwasserrisiko würde dabei stark überschätzt werden. Aufgrund unzureichender Schadensdaten werden bei der Berechnung des Risikos oftmals die Wahrscheinlichkeiten des Niederschlags oder der Hochwasserscheitelabflüsse als Annäherung für die Wahrscheinlichkeit des Schadens angenommen. Durch eine kontinuierliche Langzeit-Simulation der gesamten Hochwasserrisikokette könnte sowohl die räumliche Verteilung der Wiederkehrintervalle berücksichtig werden, als auch das Hochwasserrisiko direkt aus Schadenszeitreihen abgeleitet werden. Die Zielsetzung dieser Arbeit ist die Entwicklung und Anwendung einer, für großräumige Gebiete geeigneten, kontinuierlichen Hochwasserrisikomodellkette. Damit wird ein neuartiger Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ eingeführt, der das Hochwasserrisiko direkt aus den simulierten Abflusszeitreichen und den daraus resultierenden Schadenzeitreihen ableitet. Die größte Herausforderung der Hochwasserrisikokette liegt bei den sehr rechenintensiven, detaillierten hydraulischen Simulationen. Um geeignete hydraulische Modelle für die großräumige Anwendung zu identifizieren, wurde eine Benchmark-Studie mit 2D Modellen unterschiedlicher Komplexität durchgeführt. Auf dieser Grundlage wurde für die Hochwasserrisikomodellkette ein rasterbasierter Ansatz mit einer relativ hohen Auflösung von 100 m in Kombination mit einem schnellen 1D Fließgewässermodell ausgewählt. Um die Eignung einer kontinuierlichen Simulation der gesamten Hochwasserrisikokette für großräumige Anwendungen zu prüfen, wurden zunächst alle Komponenten der Modellkette im ‚Regional Flood Model‘ (RFM) zusammengeführt. RFM besteht aus dem hydrologischen Modell SWIM, 1D und 2D hydraulischen Modellen, sowie dem Schadensmodell FELMOps+r. Nachfolgend wurde die Modellkette für das Elbe-Einzugsgebiet (>60.000 km²) angewendet. Es wurde eine kontinuierliche Simulation für den Zeitraum 1990-2003 durchgeführt. Die Ergebnisse wurden nach Möglichkeit mit vorhandenen Messdaten validiert/evaluiert. Auch wenn jede Komponente zu Unsicherheiten in den Ergebnissen der Modellkette beiträgt, sind die Ergebnisse und Rechenzeiten für die Anwendung auf großskaliger Einzugsgebietsebene als adäquat anzusehen. Schließlich wurde RFM in einem mesoskaligen Einzugsgebiet (6.000 km²) im Osten von Deutschland angewendet, um erstmals eine Hochwasserrisikoanalyse mit dem neuartigen Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ durchzuführen. Als Input wurde eine 100 x 100-jährige Zeitreihe meteorologischer Daten von einem Wettergenerator erzeugt. Die somit erzeugte 100 x 100-jährige konsistente Abflusszeitreihe, Überschwemmungsmuster und Schadenswerte dienten als Basis für die nachfolgende Erstellung von Hochwasserrisikokurven und Schadenserwartungswerten für das Untersuchungsgebiet. Diese ermöglichen eine großräumige Analyse des Hochwasserrisikos. Dabei wurde die räumliche Variation der Wahrscheinlichkeiten berücksichtigt. Die verwendeten Daten und Methoden waren außerdem im gesamten Untersuchungsgebiet einheitlich. Einzugsgebietsprozesse und Prozesse der Überschwemmungsflächen werden holistisch dargestellt. Die Vorbedingungen im Einzugsgebiet sowie physikalische Prozesse, wie Rückhalteeffekte, Überlagerungseffekte im Gewässernetz oder Interaktionen zwischen Fluss und Überschwemmungsflächen, werden implizit berücksichtigt. Die Simulation von 100 x 100 Jahren und die daraus resultierende große Anzahl an Schadensdaten ermöglichen die direkte Berechnung des Hochwasserrisikos aus Schadenswahrscheinlichkeiten. Die Probleme, die durch die Übertragung von Wahrscheinlichkeiten von Niederschlag oder Scheitelabfluss auf die Wahrscheinlichkeiten im Schaden resultieren, werden umgangen. RFM und der Ansatz des ‚abgeleiteten Hochwasserrisikos basierend auf kontinuierlichen Simulationen‘ haben das Potential Hochwasserrisikoaussagen für nationale Planungen, Rückversicherungsaspekte oder andere Fragestellungen, bei denen räumlich konsistente und großräumige Analysen nötig sind, zu treffen. KW - flood risk KW - hydraulic simulation KW - flood risk analysis KW - risk model chain KW - floodplain inundation KW - Hochwasserrisikoanalysen KW - Hochwasserrisikokette KW - Überschwemmungsflächen KW - kontinuierlicher Simulationsansatz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90239 ER - TY - THES A1 - Oskinova, Lida T1 - A new understanding of the structured winds from massive stars : the implications for their X-ray emission, mass-loss diagnostics, and feedback Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Eisinger, Dirk T1 - A new management model for developing small scale contingency plans of rabies Y1 - 2007 CY - Potsdam ER - TY - THES A1 - Derese, Solomon A1 - Yenesew, Abiy A1 - Midiwo, Jacob O. A1 - Heydenreich, Matthias A1 - Peter, Martin G. T1 - A new isoflavone from stem bark of Millettia dura Y1 - 2003 SN - 1011-3924 ER - TY - THES A1 - Ghasemzadeh, Mohammad T1 - A new algorithm for the quantified satisfiability problem, based on zero-suppressed binary decision diagrams and memoization T1 - Ein neuer Algorithmus für die quantifizierte Aussagenlogik, basierend auf Zero-suppressed BDDs und Memoization N2 - Quantified Boolean formulas (QBFs) play an important role in theoretical computer science. QBF extends propositional logic in such a way that many advanced forms of reasoning can be easily formulated and evaluated. In this dissertation we present our ZQSAT, which is an algorithm for evaluating quantified Boolean formulas. ZQSAT is based on ZBDD: Zero-Suppressed Binary Decision Diagram , which is a variant of BDD, and an adopted version of the DPLL algorithm. It has been implemented in C using the CUDD: Colorado University Decision Diagram package. The capability of ZBDDs in storing sets of subsets efficiently enabled us to store the clauses of a QBF very compactly and let us to embed the notion of memoization to the DPLL algorithm. These points led us to implement the search algorithm in such a way that we could store and reuse the results of all previously solved subformulas with a little overheads. ZQSAT can solve some sets of standard QBF benchmark problems (known to be hard for DPLL based algorithms) faster than the best existing solvers. In addition to prenex-CNF, ZQSAT accepts prenex-NNF formulas. We show and prove how this capability can be exponentially beneficial. N2 - In der Dissertation stellen wir einen neuen Algorithmus vor, welcher Formeln der quantifizierten Aussagenlogik (engl. Quantified Boolean formula, kurz QBF) löst. QBFs sind eine Erweiterung der klassischen Aussagenlogik um die Quantifizierung über aussagenlogische Variablen. Die quantifizierte Aussagenlogik ist dabei eine konservative Erweiterung der Aussagenlogik, d.h. es können nicht mehr Theoreme nachgewiesen werden als in der gewöhnlichen Aussagenlogik. Der Vorteil der Verwendung von QBFs ergibt sich durch die Möglichkeit, Sachverhalte kompakter zu repräsentieren. SAT (die Frage nach der Erfüllbarkeit einer Formel der Aussagenlogik) und QSAT (die Frage nach der Erfüllbarkeit einer QBF) sind zentrale Probleme in der Informatik mit einer Fülle von Anwendungen, wie zum Beispiel in der Graphentheorie, bei Planungsproblemen, nichtmonotonen Logiken oder bei der Verifikation. Insbesondere die Verifikation von Hard- und Software ist ein sehr aktuelles und wichtiges Forschungsgebiet in der Informatik. Unser Algorithmus zur Lösung von QBFs basiert auf sogenannten ZBDDs (engl. Zero-suppressed Binary decision Diagrams), welche eine Variante der BDDs (engl. Binary decision Diagrams) sind. BDDs sind eine kompakte Repräsentation von Formeln der Aussagenlogik. Der Algorithmus kombiniert nun bekannte Techniken zum Lösen von QBFs mit der ZBDD-Darstellung unter Verwendung geeigneter Heuristiken und Memoization. Memoization ermöglicht dabei das einfache Wiederverwenden bereits gelöster Teilprobleme. Der Algorithmus wurde unter Verwendung des CUDD-Paketes (Colorado University Decision Diagram) implementiert und unter dem Namen ZQSAT veröffentlicht. In Tests konnten wir nachweisen, dass ZQSAT konkurrenzfähig zu existierenden QBF-Beweisern ist, in einigen Fällen sogar bessere Resultate liefern kann. KW - Binäres Entscheidungsdiagramm KW - Erfüllbarkeitsproblem KW - DPLL KW - Zero-Suppressed Binary Decision Diagram (ZDD) KW - Formeln der quantifizierten Aussagenlogik KW - Erfüllbarkeit einer Formel der Aussagenlogik KW - ZQSA KW - DPLL KW - Zero-Suppressed Binary Decision Diagram (ZDD) KW - Quantified Boolean Formula (QBF) KW - Satisfiability KW - ZQSAT Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6378 ER - TY - THES A1 - Thiede, Tobias T1 - A multiscale analysis of additively manufactured lattice structures T1 - Multiskalige Analyse von Additiv Gefertigten Gitterstrukturen N2 - Additive Manufacturing (AM) in terms of laser powder-bed fusion (L-PBF) offers new prospects regarding the design of parts and enables therefore the production of lattice structures. These lattice structures shall be implemented in various industrial applications (e.g. gas turbines) for reasons of material savings or cooling channels. However, internal defects, residual stress, and structural deviations from the nominal geometry are unavoidable. In this work, the structural integrity of lattice structures manufactured by means of L-PBF was non-destructively investigated on a multiscale approach. A workflow for quantitative 3D powder analysis in terms of particle size, particle shape, particle porosity, inter-particle distance and packing density was established. Synchrotron computed tomography (CT) was used to correlate the packing density with the particle size and particle shape. It was also observed that at least about 50% of the powder porosity was released during production of the struts. Struts are the component of lattice structures and were investigated by means of laboratory CT. The focus was on the influence of the build angle on part porosity and surface quality. The surface topography analysis was advanced by the quantitative characterisation of re-entrant surface features. This characterisation was compared with conventional surface parameters showing their complementary information, but also the need for AM specific surface parameters. The mechanical behaviour of the lattice structure was investigated with in-situ CT under compression and successive digital volume correlation (DVC). The deformation was found to be knot-dominated, and therefore the lattice folds unit cell layer wise. The residual stress was determined experimentally for the first time in such lattice structures. Neutron diffraction was used for the non-destructive 3D stress investigation. The principal stress directions and values were determined in dependence of the number of measured directions. While a significant uni-axial stress state was found in the strut, a more hydrostatic stress state was found in the knot. In both cases, strut and knot, seven directions were at least needed to find reliable principal stress directions. N2 - Das Laserstrahlschmelzen (L-PBF) als Prozess im Bereich der Additiven Fertigung (AM) ermöglicht ein neuartiges Bauteildesign und somit auch die Produktion von komplexen Gitterstrukturen, welche Materialeinsparungen und effizientere Kühlsysteme erlauben und daher für verschiedene industrielle Anwendungen (z.B. Gasturbinen) geeignet sind. Interne Defekte, Eigenspannungen und geometrische Abweichungen von der Soll-Geometrie sind jedoch unvermeidbar. Im Rahmen dieser Arbeit wird die strukturelle Integrität von L-PBF gefertigten Gitterstrukturen zerstörungsfrei auf verschiedenen Größenskalen untersucht. Eine Auswerteroutine für dreidimensionale quantitative Pulvercharakterisierung hinsichtlich der Partikelgröße, der -form, der -porosität, des Interpartikelabstands und der Packungsdichte wurde entwickelt. Synchrotron Computertomographie (CT) wurde für die Korrelation der Packungsdichte mit der Partikelgröße und -form genutzt. Darüber hinaus konnte festgestellt werden, dass mindestens 50% der Porosität aus den Pulverpartikel während der Herstellung der Streben mittels L-PBF gelöst wurde. Streben sind die Grundbausteine der Gitterstrukturen und wurden mit industrieller CT untersucht. Dabei lag der Fokus auf dem Einfluss des Bauwinkels auf die Strebenporosität und -oberflächenqualität. Die Analyse der Oberflächentopographie wurde hinsichtlich einer quantitativen Analyse von sogenannten re-entrant features erweitert. Der Vergleich dieser Auswertung mit konventionellen Oberflächenparametern offenbarte sowohl deren Komplementarität also auch den Bedarf an neuen AM-spezifischen Oberflächenparametern. In-situ CT Versuche mit anschließender digitaler Volumenkorrelation (DVC) erlaubte die Gitterstruktur bezüglich des mechanischen Verhaltens unter Druckspannung zu bewerten. Aufgrund einer schichtweisen Faltung der Einheitszellen konnte dabei das Versagensverhalten als knoten-dominiert identifiziert werden. Mittels Neutronenbeugung konnten Eigenspannungen in solchen Gitterstrukturen erstmalig experimentell bestimmt werden. Dabei wurden sowohl die Hauptspannungsrichtungen als auch die -beträge in Abhängigkeit von der Anzahl der gemessenen Spannungsrichtungen bestimmt. Während in der Strebe ein signifikanter uni-axialer Spannungszustand nachgewiesen wurde, zeigte der Knotenpunkt einen hydrostatischeren Spannungszustand. Sowohl im Falle der Strebe als auch des Knotenpunkts waren mindestens sieben gemessene Spannungsrichtungen nötig, um die Hauptspannungsrichtungen verlässlich zu ermitteln. KW - additive manufacturing KW - laser powder bed fusion KW - computed tomography KW - neutron diffraction KW - in-situ testing KW - residual stress KW - roughness KW - powder particle analysis KW - additive Fertigung KW - Laserstrahlschmelzen KW - Computertomographie KW - Neutronendiffraktion KW - In-situ Experimente KW - Eigenspannung KW - Rauheit KW - Pulverpartikelanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470418 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Horn, Juliane T1 - A modelling framework for exploration of a multidimensional factor causing decline in honeybee health BT - towards a better understanding how forage availability in agricultural landscapes affects honeybee colony persistence Y1 - 2017 ER - TY - THES A1 - Merlo, Claudia T1 - A model of protein folding kinetics Y1 - 2007 CY - Potsdam ER - TY - THES A1 - Mauri, Marco T1 - A model for sigma factor competition in bacterial cells N2 - Bacteria respond to changing environmental conditions by switching the global pattern of expressed genes. In response to specific environmental stresses the cell activates several stress-specific molecules such as sigma factors. They reversibly bind the RNA polymerase to form the so-called holoenzyme and direct it towards the appropriate stress response genes. In exponentially growing E. coli cells, the majority of the transcriptional activity is carried out by the housekeeping sigma factor, while stress responses are often under the control of alternative sigma factors. Different sigma factors compete for binding to a limited pool of RNA polymerase (RNAP) core enzymes, providing a mechanism for cross talk between genes or gene classes via the sharing of expression machinery. To quantitatively analyze the contribution of sigma factor competition to global changes in gene expression, we develop a thermodynamic model that describes binding between sigma factors and core RNAP at equilibrium, transcription, non-specific binding to DNA and the modulation of the availability of the molecular components. Association of housekeeping sigma factor to RNAP is generally favored by its abundance and higher binding affinity to the core. In order to promote transcription by alternative sigma subunits, the bacterial cell modulates the transcriptional efficiency in a reversible manner through several strategies such as anti-sigma factors, 6S RNA and generally any kind of transcriptional regulators (e.g. activators or inhibitors). By shifting the outcome of sigma factor competition for the core, these modulators bias the transcriptional program of the cell. The model is validated by comparison with in vitro competition experiments, with which excellent agreement is found. We observe that transcription is affected via the modulation of the concentrations of the different types of holoenzymes, so saturated promoters are only weakly affected by sigma factor competition. However, in case of overlapping promoters or promoters recognized by two types of sigma factors, we find that even saturated promoters are strongly affected. Active transcription effectively lowers the affinity between the sigma factor driving it and the core RNAP, resulting in complex cross talk effects and raising the question of how their in vitro measure is relevant in the cell. We also estimate that sigma factor competition is not strongly affected by non-specific binding of core RNAPs, sigma factors, and holoenzymes to DNA. Finally, we analyze the role of increased core RNAP availability upon the shut-down of ribosomal RNA transcription during stringent response. We find that passive up-regulation of alternative sigma-dependent transcription is not only possible, but also displays hypersensitivity based on the sigma factor competition. Our theoretical analysis thus provides support for a significant role of passive control during that global switch of the gene expression program and gives new insights into RNAP partitioning in the cell. N2 - Bakterien reagieren auf Aenderungen in ihren Umgebungsbedingungen indem sie global das Genexpressionsprogramm umschalten. Die Zelle aktiviert, als spezifische Reaktion auf Stressbedingungen, mehrere charakteristische Molekuele wie zum Beispiel die Sigmafaktoren. Diese binden reversibel an die RNA Polymerase (RNAP), mit der sie einen Komplex bilden das sogenannte Holoenzym und steuern sie als Reaktion auf den Stress zu den entsprechenden Genen. In exponentiell wachsenden E. Coli Zellen wird das Meiste der Transkription von einem sogenannten Haushaltssigmafaktor organisiert. Wohingegen Stressreaktionen haeufig von alternativen Sigmafaktoren kontrolliert werden. Die verschiedenen Sigmafaktoren konkurrieren um einen begrenzten Pool von RNAP Coreenzymen, womit die Expression einzelner Gene oder Genklassen beeinflusst wird, da sie sich die Maschienerie teilen. Um den Beitrag der Sigmafaktorkonkurrenz an der gesamten Veraenderung der Genexpression quantitativ zu analysieren, haben wir ein theoretisches Modell entwickelt, welches das Binden von Sigmafaktoren mit RNAP Coreenzymen im gleichgewicht, die Transkription, das nichtspezifische Binden an die DNA sowie die Modulation verfuegbarer molekularer Komponenten beschreibt. Normalerweise wird die Assoziation des Haushaltssigmafaktors mit dem RNAP Coreenzym beguenstigt durch dessen grosse Anzahl und die hohe Bindungsaffinitaet. Daher nutzen bakterielle Zellen verschiedene, reversibele Strategien um die Transkription durch alternative Holoenzyme zu foerdern. Dazu gehoeren Anti-Sigmafaktoren, 6S RNA und generell beliebige Transkriptionsregulatoren (z.B.: Aktivatoren oder Repressoren). Sie beeinflussen das Transkriptionsprogramm der Zelle indem sie das Resultat der Sigmafaktorkonkurrenz um die RNAP Coreenzyme zugunsten eines der Sigmafaktoren verschieben. Das Modell kann validiert werden durch Vergleiche mit in vitro Konkurrenzexperimenten, die exzellente uebereinstimmung zeigen. Wir koennen feststellen, dass die Transkription durch Konzentrationsaenderungen der verschiedenen Holoenzyme beeinflusst wird, daher ist der Effekt der Sigmafaktorkonkurrenz klein bei saturierten Promotoren. Was sich jedoch aendert bei sich ueberlappenden Promotoren oder Promotoren, die von zwei verschiedenen Sigmafaktoren erkannt werden. In diesen Faellen sehen wir einen grossen Effekt. Transkription fuehrt zu effektiv abgesekten Affinitaet zwischen den zugehoerigen Sigmafaktoren und den RNAP Coreenzymen, was zu komplizierten Verhalten fuehrt und die Frage aufwirft, inwieweit in vitro gemessenen Effekte in der Zelle wiederzufinden sind. Wir koennen den Einfluss nichtspezifischen Bindens der RNAPs, der Sigmafaktoren und der Holoenzyme an die DNA abschaetzen. Als letztes analysieren wir die Konkurrenz waehrend der "Stringent Response". Hierbei wird die Transkription der ribosomalen RNA unterbrochen was die Anzahl der freien RNAP Coreenzyme stark erhoeht. Wir sehen, dass das passive Hochregeln des alternativen sigmafaktorabhaengigen Transkriptionsprogramms durch Sigmafaktorkokurrenz moeglich und sogar hypersensitiv ist. Unsere theoretische Analyse zeigt, dass die passive Kontrolle in diesem Fall eine signifikante Rolle im globalen umschalten des Transkriptionsprogramms spielt und liefert neue Erkenntnisse zur RNAP Partitionierung in der Zelle. T2 - Ein Modell für die Konkurrenz zwischen Sigmafaktoren in Bakterienzellen KW - biophysics KW - systems biology KW - gene regulation KW - stress response KW - Biophysik KW - Systembiologie KW - Genregulation KW - Stressantwort Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72098 ER - TY - THES A1 - Kamprath, Martin T1 - A microfoundations perspectives on fresight and business models BT - Competence development and business model design in times of digital industry transformation Y1 - 2014 ER - TY - THES A1 - Gerling, Marten Tobias T1 - A microfluidic system for high-precision image-based live cell sorting using dielectrophoretic forces T1 - Ein mikrofluidisches System zur hochpräzisen und bildgestützten Sortierung lebender Zellen mittels dielektrophoretischer Kräfte N2 - An important goal in biotechnology and (bio-) medical research is the isolation of single cells from a heterogeneous cell population. These specialised cells are of great interest for bioproduction, diagnostics, drug development, (cancer) therapy and research. To tackle emerging questions, an ever finer differentiation between target cells and non-target cells is required. This precise differentiation is a challenge for a growing number of available methods. Since the physiological properties of the cells are closely linked to their morphology, it is beneficial to include their appearance in the sorting decision. For established methods, this represents a non addressable parameter, requiring new methods for the identification and isolation of target cells. Consequently, a variety of new flow-based methods have been developed and presented in recent years utilising 2D imaging data to identify target cells within a sample. As these methods aim for high throughput, the devices developed typically require highly complex fluid handling techniques, making them expensive while offering limited image quality. In this work, a new continuous flow system for image-based cell sorting was developed that uses dielectrophoresis to precisely handle cells in a microchannel. Dielectrophoretic forces are exerted by inhomogeneous alternating electric fields on polarisable particles (here: cells). In the present system, the electric fields can be switched on and off precisely and quickly by a signal generator. In addition to the resulting simple and effective cell handling, the system is characterised by the outstanding quality of the image data generated and its compatibility with standard microscopes. These aspects result in low complexity, making it both affordable and user-friendly. With the developed cell sorting system, cells could be sorted reliably and efficiently according to their cytosolic staining as well as morphological properties at different optical magnifications. The achieved purity of the target cell population was up to 95% and about 85% of the sorted cells could be recovered from the system. Good agreement was achieved between the results obtained and theoretical considerations. The achieved throughput of the system was up to 12,000 cells per hour. Cell viability studies indicated a high biocompatibility of the system. The results presented demonstrate the potential of image-based cell sorting using dielectrophoresis. The outstanding image quality and highly precise yet gentle handling of the cells set the system apart from other technologies. This results in enormous potential for processing valuable and sensitive cell samples. N2 - Ein wichtiges Ziel in der Biotechnologie und (bio-) medizinischen Forschung ist die Isolation von Einzelzellen aus einer heterogenen Zellpopulation. Aufgrund ihrer besonderen Eigenschaften sind diese Zellen für die Bioproduktion, Diagnostik, Arzneimittelentwicklung, (Krebs-) Therapie und Forschung von großem Interesse. Um neue Fragestellungen angehen zu können, ist eine immer feinere Differenzierung zwischen Zielzellen und Nicht-Zielzellen erforderlich. Diese präzise Differenzierung stellt eine Herausforderung für eine wachsende Zahl verfügbarer Methoden dar. Da die physiologischen Eigenschaften der Zellen eng mit ihrer Morphologie verknüpft sind, ist es sinnvoll ihr Erscheinungsbild mit in die Sortierentscheidung einzubeziehen. Für etablierte Methoden stellt dies jedoch einen nicht adressierbaren Parameter dar, weshalb neue Methoden zur Identifikation und Isolation der Zielzellen benötigt werden. Folglich wurde in den letzten Jahren eine Vielzahl neuer durchflussbasierter Methoden entwickelt und vorgestellt, die 2D-Bilddaten zur Identifikation der Zielzellen innerhalb einer Probe heranziehen. Da diese Methoden auf hohe Durchsätze abzielen, erfordern die entwickelten Geräte in der Regel hochkomplexe Techniken zur Handhabung der Flüssigkeiten, was sie teuer macht und gleichzeitig zu einer begrenzten Bildqualität führt. In dieser Arbeit wurde ein neues durchflussbasiertes System zur bildbasierten Zellsortierung entwickelt, das Dielektrophorese zur präzisen Handhabung der Zellen in einem Mikrokanal verwendet. Dielektrophoretische Kräfte werden von inhomogenen elektrischen Wechselfeldern auf polarisierbare Partikel (hier: Zellen) ausgeübt. Bei dem vorliegenden System können die elektrischen Felder durch einen Signalgenerator präzise und schnell ein- und ausgeschaltet werden. Neben der daraus resultierenden einfachen und effektiven Handhabung der Zellen zeichnet sich das System durch die hervorragende Qualität der erzeugten Bilddaten und die Kompatibilität mit Standardmikroskopen aus. Diese Aspekte führen zu einer geringen Komplexität, die es sowohl erschwinglich als auch benutzerfreundlich macht. Mit dem entwickelten System zur Zellsortierung konnten Zellen sowohl auf Basis einer zytosolischen Färbung als auch auf Basis morphologischer Eigenschaften bei verschiedenen optischen Vergrößerungen zuverlässig und effizient sortiert werden. Die erreichte Reinheit der Zielzellpopulation betrug bis zu 95% wobei etwa 85% der sortierten Zellen aus dem System zurückgewonnen werden konnten. Dabei wurde eine gute Übereinstimmung der ermittelten Ergebnisse mit theoretischen Überlegungen erreicht. Der erreichte Durchsatz des Systems betrug bis zu 12.000 Zellen pro Stunde. Untersuchungen der Zellvitalität deuteten darauf hin, dass das System eine hohe Biokompatibilität aufweist. Die vorgestellten Ergebnisse demonstrieren das Potenzial der bildbasierten Zellsortierung mittels Dielektrophorese. Die herausragende Bildqualität und hochpräzise aber dennoch zellschonende Handhabung der Zellen grenzen das System von anderen Technologien ab. Daraus ergibt sich ein enormes Potenzial für die Verarbeitung wertvoller und sensibler Zellproben. KW - microfluidics KW - cell sorting KW - dielectrophoresis KW - Zellsortierung KW - Dielektrophorese KW - Mikrofluidik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587421 ER - TY - THES A1 - Kirschbaum, Michael T1 - A microfluidic approach for the initiation and investigation of surface-mediated signal transduction processes on a single-cell level T1 - Entwicklung einer mikrofluidischen Prozesslinie für die Induktion und Analyse oberflächenvermittelter Signaltransduktionsprozesse auf Einzelzell-Ebene N2 - For the elucidation of the dynamics of signal transduction processes that are induced by cellular interactions, defined events along the signal transduction cascade and subsequent activation steps have to be analyzed and then also correlated with each other. This cannot be achieved by ensemble measurements because averaging biological data ignores the variability in timing and response patterns of individual cells and leads to highly blurred results. Instead, only a multi-parameter analysis at a single-cell level is able to exploit the information that is crucially needed for deducing the signaling pathways involved. The aim of this work was to develop a process line that allows the initiation of cell-cell or cell-particle interactions while at the same time the induced cellular reactions can be analyzed at various stages along the signal transduction cascade and correlated with each other. As this approach requires the gentle management of individually addressable cells, a dielectrophoresis (DEP)-based microfluidic system was employed that provides the manipulation of microscale objects with very high spatiotemporal precision and without the need of contacting the cell membrane. The system offers a high potential for automation and parallelization. This is essential for achieving a high level of robustness and reproducibility, which are key requirements in order to qualify this approach for a biomedical application. As an example process for intercellular communication, T cell activation has been chosen. The activation of the single T cells was triggered by contacting them individually with microbeads that were coated with antibodies directed against specific cell surface proteins, like the T cell receptor-associated kinase CD3 and the costimulatory molecule CD28 (CD; cluster of differentiation). The stimulation of the cells with the functionalized beads led to a rapid rise of their cytosolic Ca2+ concentration which was analyzed by a dual-wavelength ratiometric fluorescence measurement of the Ca2+-sensitive dye Fura-2. After Ca2+ imaging, the cells were isolated individually from the microfluidic system and cultivated further. Cell division and expression of the marker molecule CD69 as a late activation event of great significance were analyzed the following day and correlated with the previously recorded Ca2+ traces for each individual cell. It turned out such that the temporal profile of the Ca2+ traces between both activated and non-activated cells as well as dividing and non-dividing cells differed significantly. This shows that the pattern of Ca2+ signals in T cells can provide early information about a later reaction of the cell. As isolated cells are highly delicate objects, a precondition for these experiments was the successful adaptation of the system to maintain the vitality of single cells during and after manipulation. In this context, the influences of the microfluidic environment as well as the applied electric fields on the vitality of the cells and the cytosolic Ca2+ concentration as crucially important physiological parameters were thoroughly investigated. While a short-term DEP manipulation did not affect the vitality of the cells, they showed irregular Ca2+ transients upon exposure to the DEP field only. The rate and the strength of these Ca2+ signals depended on exposure time, electric field strength and field frequency. By minimizing their occurrence rate, experimental conditions were identified that caused the least interference with the physiology of the cell. The possibility to precisely control the exact time point of stimulus application, to simultaneously analyze short-term reactions and to correlate them with later events of the signal transduction cascade on the level of individual cells makes this approach unique among previously described applications and offers new possibilities to unravel the mechanisms underlying intercellular communication. N2 - Zelluläre Interaktionen sind wirkungsvolle Mechanismen zur Kontrolle zellulärer Zustände in vivo. Für die Entschlüsselung der dabei beteiligten Signaltransduktionsprozesse müssen definierte Ereignisse entlang der zellulären Signalkaskade erfasst und ihre wechselseitige Beziehung zueinander aufgeklärt werden. Dies kann von Ensemble-Messungen nicht geleistet werden, da die Mittelung biologischer Daten die Variabilität des Antwortverhaltens individueller Zellen missachtet und verschwommene Resultate liefert. Nur eine Multiparameteranalyse auf Einzelzellebene kann die entscheidenden Informationen liefern, die für ein detailliertes Verständnis zellulärer Signalwege unabdingbar sind. Ziel der vorliegenden Arbeit war die Entwicklung einer Methode, welche die gezielte Kontaktierung einzelner Zellen mit anderen Zellen oder Partikeln ermöglicht und mit der die dadurch ausgelösten zellulären Reaktionen auf unterschiedlichen zeitlichen Ebenen analysiert und miteinander korreliert werden können. Da dies die schonende Handhabung einzeln adressierbarer Zellen erfordert, wurde ein auf Dielektrophorese (DEP) basierendes mikrofluidisches System eingesetzt, welches die berührungslose Manipulation mikroskaliger Objekte mit hoher zeitlicher und örtlicher Präzision erlaubt. Das System besitzt ein hohes Potential zur Automatisierung und Parallelisierung, was für eine robuste und reproduzierbare Analyse lebender Zellen essentiell, und daher eine wichtige Voraussetzung für eine Anwendung in der Biomedizin ist. Als Modellsystem für interzelluläre Kommunikation wurde die T-Zell-Aktivierung gewählt. Die Aktivierung der einzelnen T-Zellen wurde durch ihre gezielte Kontaktierung mit Mikropartikeln („beads“) induziert, welche mit Antikörpern gegen spezielle Oberflächenproteine, wie die dem T-Zell-Rezeptor assoziierte Kinase CD3 oder das kostimulatorische Protein CD28, beschichtet waren. Die Stimulation der Zellen mit den funktionalisierten beads führte zu einem raschen Anstieg der intrazellulären Ca2+-Konzentration, welche über eine ratiometrische Detektion des Ca2+-sensitiven Fluoreszenzfarbstoffs Fura-2 gemessen wurde. Anschließend wurden die einzelnen Zellen aus dem mikrofluidischen System isoliert und weiterkultiviert. Am nächsten Tag wurden Zellteilung und die CD69-Expression – ein wichtiger Marker für aktivierte T-Zellen – analysiert und auf Ebene der individuellen Zelle mit dem zuvor gemessenen Ca2+-Signal korreliert. Es stellte sich heraus, dass der zeitliche Verlauf des intrazellulären Ca2+-Signals zwischen aktivierten und nicht aktivierten, sowie zwischen geteilten und nicht geteilten Zellen signifikant verschieden war. Dies zeigt, dass Ca2+-Signale in stimulierten T-Zellen wichtige Informationen über eine spätere Reaktion der Zelle liefern können. Da Einzelzellen äußerst empfindlich auf ihre Umgebungsbedingungen reagieren, war die Anpassung der experimentellen Vorgehensweise im Hinblick auf die Zellverträglichkeit von großer Bedeutung. Vor diesem Hintergrund wurde der Einfluss sowohl der mikrofluidischen Umgebung, als auch der elektrischen Felder auf die Überlebensrate und die intrazelluläre Ca2+-Konzentration der Zellen untersucht. Während eine kurzzeitige DEP-Manipulation im mikrofluidischen System die Vitalität der Zellen nicht beeinträchtigte, zeigten diese unregelmäßige Fluktuationen ihrer intrazellulären Ca2+-Konzentration selbst bei geringer elektrischer Feldexposition. Die Ausprägung dieser Fluktuationen war abhängig von der Expositionszeit, der elektrischen Feldstärke und der Feldfrequenz. Über die Minimierung ihres Auftretens konnten experimentelle Bedingungen mit dem geringsten Einfluss auf die Physiologie der Zellen identifiziert werden. Die Möglichkeit, einzelne Zellen zeitlich definiert und präzise mit anderen Zellen oder Oberflächen zu kontaktieren, die unmittelbare Reaktion der Zellen zu messen und diese mit späteren Ereignissen der Zellantwort zu korrelieren, macht die hier vorgestellte Methode einzigartig im Vergleich mit anderen Ansätzen und eröffnet neue Wege, die der interzellulären Kommunikation zugrunde liegenden Mechanismen aufzuklären. KW - T-Zell Aktivierung KW - Calcium KW - Einzelzellen KW - Mikrofluidik KW - Dielektrophorese KW - T cell activation KW - calcium KW - single-cell KW - lab on a chip KW - dielectrophoresis Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39576 ER -