TY - THES A1 - Jehannin, Marie T1 - About the role of physico-chemical properties and hydrodynamics on the progress of a precipitation reaction T1 - Über die Rolle physikalisch-chemischer Eigenschaften und Hydrodynamiken auf den Fortschritt einer Fällungsreaktion BT - the case of cerium oxalate particles produced during coalescence of drops BT - Ceroxalat-Partikel, entstanden während der Koaleszenz von Tropfen N2 - The size and morphology control of precipitated solid particles is a major economic issue for numerous industries. For instance, it is interesting for the nuclear industry, concerning the recovery of radioactive species from used nuclear fuel. The precipitates features, which are a key parameter from the post-precipitate processing, depend on the process local mixing conditions. So far, the relationship between precipitation features and hydrodynamic conditions have not been investigated. In this study, a new experimental configuration consisting of coalescing drops is set to investigate the link between reactive crystallization and hydrodynamics. Two configurations of aqueous drops are examined. The first one corresponds to high contact angle drops (>90°) in oil, as a model system for flowing drops, the second one correspond to sessile drops in air with low contact angle (<25°). In both cases, one reactive is dissolved in each drop, namely oxalic acid and cerium nitrate. When both drops get into contact, they may coalesce; the dissolved species mix and react to produce insoluble cerium oxalate. The precipitates features and effect on hydrodynamics are investigated depending on the solvent. In the case of sessile drops in air, the surface tension difference between the drops generates a gradient which induces a Marangoni flow from the low surface tension drop over the high surface tension drop. By setting the surface tension difference between the two drops and thus the Marangoni flow, the hydrodynamics conditions during the drop coalescence could be modified. Diols/water mixtures are used as solvent, in order to fix the surface tension difference between the liquids of both drops regardless from the reactant concentration. More precisely, the used diols, 1,2-propanediol and 1,3-propanediol, are isomer with identical density and close viscosity. By keeping the water volume fraction constant and playing with the 1,2-propanediol and 1,3-propanediol volume fractions of the solvents, the mixtures surface tensions differ up to 10 mN/m for identical/constant reactant concentration, density and viscosity. 3 precipitation behaviors were identified for the coalescence of water/diols/recatants drops depending on the oxalic excess. The corresponding precipitates patterns are visualized by optical microscopy and the precipitates are characterized by confocal microscopy SEM, XRD and SAXS measurements. In the intermediate oxalic excess regime, formation of periodic patterns can be observed. These patterns consist in alternating cerium oxalate precipitates with distinct morphologies, namely needles and “microflowers”. Such periodic fringes can be explained by a feedback mechanism between convection, reaction and the diffusion. N2 - Die Kontrolle der Morphologie und Größe fester durch Fällung erzeugter Partikel ist eine wichtige Herausforderung in Industrie und Forschung. Insbesondere gilt dies für die Wiederaufbereitung verbrauchter Brennstäber in der Atomindustrie. Die Eigenschaften der Ausfällungen hängen von den Mischbedingungen der Flüssigkeiten in den Prozessen ab. Dennoch sind die Beziehungen zwischen den physischen Charakteristiken der erzeugten Partikeln und den hydrodynamischen Bedingungen ungewiss. In dieser Arbeit werden Zwei-Tropfen-Koalezenz-Experiment genutzt, um die Verbindungen zwischen Hydrodynamik und Fällungsreaktion besser zu verstehen. Zwei Konfigurationen von ruhenden wässrigen Tropfen wurden untersucht: Zum einen Tropfen mit hohem Kontaktwinkel (> 90°) in Öl und zum anderen Tropfen mit kleinem Kontaktwinkel (< 25°) in Luft. In beiden Fällen wurde Oxalsäure und Ceriumnitrat jeweils in einem Tropfen gelöst. Wenn beide Tropfen einander in Kontakt treten, können sie sich vereinigen. Dabei mischen sich die Reagenzien und erzeugen Ceriumoxalat. In Abhängigkeit von Lösungsmitteln werden die Eigenschaften der Fällung sowie ihr Einfluss auf die Hydrodynamik untersucht. In Experimenten Tropfen in Luft ist es außerdem möglich, mittels Wasser/Diol-Mischungen den Oberflächenspannungsgradienten zwischen beiden Tropfenflüssigkeiten zu ändern. Damit ist es möglich den resultierenden Marangoni-Fluss zu kontrollieren. So werden die hydrodynamischen Bedingungen unabhängig von dem Oxalsäureüberschuss verwirklicht. In diesem Fall werden drei Fällungsverhalten abhängig er Oxalsäure-Konzentration beobachtet. Das Zwischenverhalten zeigt überraschende periodische Strukturen, welche verschiedenen Morphologien bilden, nämlich Nägeln und „Microflower“. Die Strukturen wurden über Optische Mikroskopie Identifiziert und charakterisiert mit Hilfe von Konfokaler Mikroskopie, SEM, XRD und SAXS. Die Entstehung solcher Strukturen könnte durch eine Konvektion- Diffusion- Reaktion-Rückkopplung erklärt werden. N2 - Réussir à contrôler la morphologie et la taille de particules solides obtenues par précipitation est un enjeu industriel majeur. C’est notamment le cas dans l’industrie nucléaire pour le recyclage du combustible usé. Les caractéristiques des précipités sont liées aux conditions de mélange des phases liquides dans les procédés. Les corrélations entre les paramètres physiques des particules obtenues et les conditions hydrodynamiques n’ont pas été examinées jusqu’à présent. Dans cette étude, des systèmes expérimentaux originaux, basés sur la coalescence de deux gouttes, sont utilisés afin de mieux comprendre les liens entre hydrodynamique et réaction de précipitation. Deux configurations de gouttes aqueuses ont été investiguées, la première consiste en deux goutes posées à fort angle de contact (>90°) dans l’huile, il s’agit d’un système modèle pour les gouttes en émulsion, la second configuration correspond à deux gouttes posées à faible angle de contact (>25°) dans l’air. Dans chaque cas, une espèce réactive est dissoute dans chaque goutte, à savoir de l’acide oxalique ou du nitrate de cérium dans la seconde. Lorsque les deux gouttes se touchent, elles peuvent éventuellement coalescer, alors les espèces chimiques se mélangent et réagissent pour produire un précipité d’oxalate de cérium. Les caractéristiques de ce précipité et ses effets sur l’hydrodynamique sont examinés en fonction du solvant utilisé. De plus, dans le cas des gouttes posées sur une surface de silice dans l’air, une différence de tension de surface entre deux gouttes crée un gradient qui génère un flux de Marangoni dirigé de la goutte de faible tension de surface au-dessus de la goutte de forte tension de surface. En jouant sur la différence de tension de surface entre les deux gouttes, et ainsi sur le flux de Marangoni, il est possible de modifier les conditions hydrodynamiques lors de la coalescence des gouttes. Des mélanges eau/diols ont été utilisés comme solvant afin de pouvoir modifier la différence de tension de surface entre les liquides des deux gouttes indépendamment de leur concentration en réactif. Les diols utilisés, le 1,2-propanediol et le 1,3-propanediol sont des isomères, ils sont la même densité, des viscosités semblables mais des tensions de surface différentes. En fixant la fraction volumique d’eau dans le solvant, et en jouant sur les fractions volumiques de chaque diols, il est possible de contrôler la tension de surface des mélanges sur une gamme de 10 mN/m pour une concentration en réactifs donnée, et en conservant la densité et viscosité des solvants. Trois régimes de précipitation ont été identifiés dans le cas de la coalescence de gouttes d’eau/diols/réactifs en fonction de l’excès oxalique. Les motifs de précipitation en découlant ont été imagés par microscopie optique et les différents précipités ont été caractérisés à l’aide de microscopie confocale, MEB, DRX et SAXS. Le régime intermédiaire présente des motifs périodiques surprenants. Ces motifs correspondent à des domaines nettement délimités d’oxalate de cérium de différentes morphologies, à savoir des aiguilles et des « microflowers ». L’obtention de tels motifs peut s’expliquer par un mécanisme de rétroaction entre convection, réaction et diffusion. KW - Marangoni flow KW - coalescence KW - periodic pattern KW - oxalic precipitation KW - drop KW - Marangoni-Fluss KW - Koaleszenz KW - Tropfen KW - Fällungsreaktion KW - periodisches Muster KW - Oxalat-Fällung KW - flux de Marangoni KW - coalescence KW - gouttes KW - précipitation KW - motif périodique KW - précipitation oxalique Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88364 ER - TY - THES A1 - Schirmack, Janosch T1 - Activity of methanogenic archaea under simulated Mars analog conditions T1 - Aktivität methanogener Archaeen unter simulierten Marsanalogen Bedingungen N2 - Assumed comparable environmental conditions of early Mars and early Earth in 3.7 Ga ago – at a time when first fossil records of life on Earth could be found – suggest the possibility of life emerging on both planets in parallel. As conditions changed, the hypothetical life on Mars either became extinct or was able to adapt and might still exist in biological niches. The controversial discussed detection of methane on Mars led to the assumption, that it must have a recent origin – either abiotic through active volcanism or chemical processes, or through biogenic production. Spatial and seasonal variations in the detected methane concentrations and correlations between the presence of water vapor and geological features such as subsurface hydrogen, which are occurring together with locally increased detected concentrations of methane, gave fuel to the hypothesis of a possible biological source of the methane on Mars. Therefore the phylogenetically old methanogenic archaea, which have evolved under early Earth conditions, are often used as model-organisms in astrobiological studies to investigate the potential of life to exist in possible extraterrestrial habitats on our neighboring planet. In this thesis methanogenic archaea originating from two extreme environments on Earth were investigated to test their ability to be active under simulated Mars analog conditions. These extreme environments – the Siberian permafrost-affected soil and the chemoautotrophically based terrestrial ecosystem of Movile cave, Romania – are regarded as analogs for possible Martian (subsurface) habitats. Two novel species of methanogenic archaea isolated from these environments were described within the frame of this thesis. It could be shown that concentrations up to 1 wt% of Mars regolith analogs added to the growth media had a positive influence on the methane production rates of the tested methanogenic archaea, whereas higher concentrations resulted in decreasing rates. Nevertheless it was possible for the organisms to metabolize when incubated on water-saturated soil matrixes made of Mars regolith analogs without any additional nutrients. Long-term desiccation resistance of more than 400 days was proven with reincubation and indirect counting of viable cells through a combined treatment with propidium monoazide (to inactivate DNA of destroyed cells) and quantitative PCR. Phyllosilicate rich regolith analogs seem to be the best soil mixtures for the tested methanogenic archaea to be active under Mars analog conditions. Furthermore, in a simulation chamber experiment the activity of the permafrost methanogen strain Methanosarcina soligelidi SMA-21 under Mars subsurface analog conditions could be proven. Through real-time wavelength modulation spectroscopy measurements the increase in the methane concentration at temperatures down to -5 °C could be detected. The results presented in this thesis contribute to the understanding of the activity potential of methanogenic archaea under Mars analog conditions and therefore provide insights to the possible habitability of present-day Mars (near) subsurface environments. Thus, it contributes also to the data interpretation of future life detection missions on that planet. For example the ExoMars mission of the European Space Agency (ESA) and Roscosmos which is planned to be launched in 2018 and is aiming to drill in the Martian subsurface. N2 - Die Vermutung vergleichbarer Umweltbedingungen des frühen Mars und der frühen Erde vor 3,7 Mrd. Jahren – der Zeitpunkt, zu dem die ersten fossilen Spuren des Lebens auf der Erde gefunden werden konnten – weisen auf die Möglichkeit hin, dass das Leben auf beiden Planeten parallel entstanden sein könnte. Als die Bedingungen auf dem Mars schlechter wurden, ist das hypothetische Leben dort entweder ausgestorben, oder es war in der Lage sich anzupassen und könnte noch heute in biologischen Nischen auf dem Planeten existieren. Die kontrovers diskutierte Detektion von Methan auf dem Mars führte zu der Annahme, dass dieses einen rezenten Ursprung haben muss – entweder abiotisch durch aktiven Vulkanismus oder chemische Prozesse oder aber durch biogene Produktion. Räumliche und saisonale Schwankungen der durch Fernerkundung gemessenen Methankonzentrationen, sowie die Korrelation zwischen dem Auftreten von Wasserdampf und im Untergrund detektiertem Wasserstoff zusammen mit lokal erhöhten Konzentrationen von Methan, befürworten die Hypothese einer biologischen Methanquelle auf dem Mars. Daher werden methanogene Archaeen, welche sich unter den Bedingungen der frühen Erde entwickelt haben, oft als Modellorganismen in astrobiologischen Studien zu potentiellem Leben auf unserem benachbarten Planeten Mars verwendet. In dieser Dissertation wurden methanogene Archaeen aus zwei extremen Habitaten auf der Erde auf ihre Fähigkeiten hin untersucht, unter simulierten Mars-analogen Bedingungen aktiven Metabolismus zu zeigen. Die beiden extremen Habitate – der active layer des sibirischen Permafrosts und das auf Chemoautotrophie basierende terrestrische Ökosystem der Movile Höhle in Rumänien – gelten als Analoga für mögliche Habitate auf dem Mars. Im Rahmen dieser Arbeit wurden zwei neue Arten von methanogenen Archaeen beschrieben, die aus den beiden genannten extremen Habitaten isoliert worden sind. In dieser Studie konnte gezeigt werden, dass Mars-Regolith-Analoga, in Konzentrationen bis zu 1 Gew.-% zum Wachstumsmedium hinzugefügt, einen positiven Einfluss auf die Methanbildungsraten der getesteten Archaeen hatten, während höhere zugefügte Konzentrationen sinkende Raten verursachten. Dennoch war es den Organismen möglich, auf wassergesättigten künstlichen Böden aus Mars-Regolith-Analoga Methan zu produzieren, auch ohne Zugabe jeglicher weiterer Nährstoffe. Die Resistenz gegenüber Langzeit-Austrocknung von mehr als 400 Tagen wurde mittels Reinkubation sowie indirekter Zellzahlbestimmung von lebensfähigen Zellen nachgewiesen. Dies erfolgte durch eine Kombinationsbehandlung mit Propidium-Monoazide (zur Inaktivierung der DNA aus Zellen mit zerstörter Membran) und quantitativer PCR. Regolith-Analoga mit einem hohen Anteil an Phyllosilikaten schienen die besten Bodenmischungen für die metabolische Aktivität der getesteten methanogenen Archaeen unter Marsanalogen Bedingungen zu liefern. Des Weiteren konnte mittels einer Simulationskammer für den Permafrost-Stamm Methanosarcina soligelidi SMA-21 Methanbildung unter Bedingungen analog zum Marsuntergrund nachgewiesen werden. Durch Wellenlängen-Modulations-Spektroskopie konnte die Zunahme der Methankonzentration bei Temperaturen bis zu -5 °C gemessen werden. Die in dieser Arbeit vorgestellten Ergebnisse erweitern das Verständnis des Potenzials der methanogenen Archaeen, unter Mars-analogen Bedingungen aktiv sein zu können und vermitteln Einblicke in die mögliche Habitabilität vom heutigen Marsuntergrund. Außerdem tragen sie zur Interpretation der Daten von zukünftigen Marsmissionen zur Erkundung von möglichem Leben auf dem Planeten bei. Ein Beispiel hierfür könnte die ExoMars-Mission der Europäischen Weltraumorganisation (ESA) und Roskosmos sein, welche im Jahr 2018 gestartet werden soll und bestrebt ist, in den Marsuntergrund zu bohren. KW - methanogenic archaea KW - Mars KW - simulation experiments KW - long-term desiccation KW - Martian regolith analogs KW - methanogene Archaeen KW - Mars KW - Marsanaloge Regolithe KW - Simulationsexperimente KW - Langzeitaustrocknung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73010 ER - TY - THES A1 - Lamanna, Francesco T1 - Adaptive radiation and speciation in African weakly-electric fish T1 - Adaptive Radiation und Artbildung von elektrischen Fischen Afrikas BT - a phylogenetic and transcriptomic perspective BT - eine phylogenetische und transkriptomische Perspektive N2 - The rise of evolutionary novelties is one of the major drivers of evolutionary diversification. African weakly-electric fishes (Teleostei, Mormyridae) have undergone an outstanding adaptive radiation, putatively owing to their ability to communicate through species-specific Electric Organ Discharges (EODs) produced by a novel, muscle-derived electric organ. Indeed, such EODs might have acted as effective pre-zygotic isolation mechanisms, hence favoring ecological speciation in this group of fishes. Despite the evolutionary importance of this organ, genetic investigations regarding its origin and function have remained limited. The ultimate aim of this study is to better understand the genetic basis of EOD production by exploring the transcriptomic profiles of the electric organ and of its ancestral counterpart, the skeletal muscle, in the genus Campylomormyrus. After having established a set of reference transcriptomes using “Next-Generation Sequencing” (NGS) technologies, I performed in silico analyses of differential expression, in order to identify sets of genes that might be responsible for the functional differences observed between these two kinds of tissues. The results of such analyses indicate that: i) the loss of contractile activity and the decoupling of the excitation-contraction processes are reflected by the down-regulation of the corresponding genes in the electric organ; ii) the metabolic activity of the electric organ might be specialized towards the production and turnover of membrane structures; iii) several ion channels are highly expressed in the electric organ in order to increase excitability, and iv) several myogenic factors might be down-regulated by transcription repressors in the EO. A secondary task of this study is to improve the genus level phylogeny of Campylomormyrus by applying new methods of inference based on the multispecies coalescent model, in order to reduce the conflict among gene trees and to reconstruct a phylogenetic tree as closest as possible to the actual species-tree. By using 1 mitochondrial and 4 nuclear markers, I was able to resolve the phylogenetic relationships among most of the currently described Campylomormyrus species. Additionally, I applied several coalescent-based species delimitation methods, in order to test the hypothesis that putatively cryptic species, which are distinguishable only from their EOD, belong to independently evolving lineages. The results of this analysis were additionally validated by investigating patterns of diversification at 16 microsatellite loci. The results suggest the presence of a new, yet undescribed species of Campylomormyrus. N2 - Das übergreifende Ziel dieser Arbeit ist das bessere Verständnis der Bedeutung der schwachen Elektrizität für die adaptive radiation der Mormyriden Afrikas. Das gewählte Modell-Taxon, die Mormyriden-Gattung Campylomormyrus, zeigt eine große Vielfalt an elektrischen Entladungsformen. Diese Entladungsformen sind artspezifisch. Die genetische Basis dieses Merkmales ist allerdings noch unbekannt. In dieser Arbeit habe ich transkriptomische Untersuchungen vom elektrischen Organ und Skelettmuskel durchgeführt. Die Ergebnisse dieser Analysen zeigen, dass die phenotypischen Unterschiede zwischen dem elektrischen Organ und dem Skelettmusckel in den jeweiligen transkriptomen gespiegelt sind. Ich habe auch einen phylogenetischen Stammbaum für die Gattung Campylomormyrus hergestellt, durch die Anwendung von „Multispecies Coalescent Models“-basierten Methoden. Außerdem, durch die Anwendung von Mikrosatellitdaten, die als unabhängiger Beweis dienten, konnte ich zeigen, dass die identifizierten phylogenetischen Gruppen reproduktiv isolierte biologische Arten sind. Auf diese Weise konnte ich ein neuen, noch unbeschriebenen Art nachweisen. KW - evolution KW - transcriptomics KW - phylogeny KW - Evolution KW - Transkriptomik KW - Phylogenese Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80097 ER - TY - THES A1 - Zakharova, Olga T1 - Analysis and modeling of transient earthquake patterns and their dependence on local stress regimes T1 - Analyse und Modellierung der transienten Erdbebenmuster und deren Abhängigkeit von lokalen Spannungsregimen N2 - Investigations in the field of earthquake triggering and associated interactions, which includes aftershock triggering as well as induced seismicity, is important for seismic hazard assessment due to earthquakes destructive power. One of the approaches to study earthquake triggering and their interactions is the use of statistical earthquake models, which are based on knowledge of the basic seismicity properties, in particular, the magnitude distribution and spatiotemporal properties of the triggered events. In my PhD thesis I focus on some specific aspects of aftershock properties, namely, the relative seismic moment release of the aftershocks with respect to the mainshocks; the spatial correlation between aftershock occurrence and fault deformation; and on the influence of aseismic transients on the aftershock parameter estimation. For the analysis of aftershock sequences I choose a statistical approach, in particular, the well known Epidemic Type Aftershock Sequence (ETAS) model, which accounts for the input of background and triggered seismicity. For my specific purposes, I develop two ETAS model modifications in collaboration with Sebastian Hainzl. By means of this approach, I estimate the statistical aftershock parameters and performed simulations of aftershock sequences as well. In the case of seismic moment release of aftershocks, I focus on the ratio of cumulative seismic moment release with respect to the mainshocks. Specifically, I investigate the ratio with respect to the focal mechanism of the mainshock and estimate an effective magnitude, which represents the cumulative aftershock energy (similar to Bath's law, which defines the average difference between mainshock and the largest aftershock magnitudes). Furthermore, I compare the observed seismic moment ratios with the results of the ETAS simulations. In particular, I test a restricted ETAS (RETAS) model which is based on results of a clock advanced model and static stress triggering. To analyze spatial variations of triggering parameters I focus in my second approach on the aftershock occurrence triggered by large mainshocks and the study of the aftershock parameter distribution and their spatial correlation with the coseismic/postseismic slip and interseismic locking. To invert the aftershock parameters I improve the modified ETAS (m-ETAS) model, which is able to take the extension of the mainshock rupture into account. I compare the results obtained by the classical approach with the output of the m-ETAS model. My third approach is concerned with the temporal clustering of seismicity, which might not only be related to earthquake-earthquake interactions, but also to a time-dependent background rate, potentially biasing the parameter estimations. Thus, my coauthors and I also applied a modification of the ETAS model, which is able to take into account time-dependent background activity. It can be applicable for two different cases: when an aftershock catalog has a temporal incompleteness or when the background seismicity rate changes with time, due to presence of aseismic forces. An essential part of any research is the testing of the developed models using observational data sets, which are appropriate for the particular study case. Therefore, in the case of seismic moment release I use the global seismicity catalog. For the spatial distribution of triggering parameters I exploit two aftershock sequences of the Mw8.8 2010 Maule (Chile) and Mw 9.0 2011 Tohoku (Japan) mainshocks. In addition, I use published geodetic slip models of different authors. To test our ability to detect aseismic transients my coauthors and I use the data sets from Western Bohemia (Central Europe) and California. Our results indicate that: (1) the seismic moment of aftershocks with respect to mainshocks depends on the static stress changes and is maximal for the normal, intermediate for thrust and minimal for strike-slip stress regimes, where the RETAS model shows a good correspondence with the results; (2) The spatial distribution of aftershock parameters, obtained by the m-ETAS model, shows anomalous values in areas of reactivated crustal fault systems. In addition, the aftershock density is found to be correlated with coseismic slip gradient, afterslip, interseismic coupling and b-values. Aftershock seismic moment is positively correlated with the areas of maximum coseismic slip and interseismically locked areas. These correlations might be related to the stress level or to material properties variations in space; (3) Ignoring aseismic transient forcing or temporal catalog incompleteness can lead to the significant under- or overestimation of the underlying trigger parameters. In the case when a catalog is complete, this method helps to identify aseismic sources. N2 - Untersuchungen im Bereich der Erdbebennukleation, sowie der Erdbebeninteraktion und induzierter Seismizität, sind wegen des enormen Zerstörungspotenzials von Erdbeben besonders wichtig für seismische Gefährdungsanalysen. In meiner Doktorarbeit fokussiere ich mich auf einige Eigenschaften von Nachbeben, insbesondere auf deren freigesetztes seismisches Moment in Relation zum Hauptbeben, die räumliche Korrelation zwischen der Nachbebenaktivität und der Deformationsgeschichte der Verwerfung und den Einfluss von aseismischen Transienten auf die Bestimmung von Nachbebenparametern. Ich habe einen statistischen Ansatz für die Analyse der Nachbebensequenzen gewählt. Das sogenannte Epidemic Type Aftershock Sequence (ETAS) Modell berücksichtigt sowohl Hintergrundseismizität als auch getriggerte Erdbebenaktivität. Für meine Zwecke habe ich zusammen mit Sebastian Hainzl zwei Modifikationen für dieses ETAS Modell entwickelt. Mittels dieser Ansätze habe ich die statistischen Parameter der Nachbebenaktivität bestimmt und Simulationen von Nachbebensequenzen durchgeführt. Im Falle des freigesetzten seismischen Moments von Nachbeben habe ich das Verhältnis des kummulativen Moments der Nachbeben in Bezug zum Hauptbeben untersucht. Im Speziellen betrachte ich das Verhältnis in Bezug auf den Herdmechanismus des Hauptbebens und bestimme eine effektive Magnitude, welche die kummulative Nachbebenenergie darstellt (ähnlich zu Bath's Gesetz, welches den durchschnittlichen Unterschied zwischen der Hauptbebenmagnitude und der Magnitude des größten Nachbebens beschreibt). Desweiteren vergleiche ich das Verhältnis des beobachteten seismischen Moments mit den Ergebnissen von ETAS-basierten Simulationen. Dabei teste ich ein Restricted ETAS (RETAS) Modell, welches auf den Resultaten eines Clock-Advance Modells und den durch das Hauptbeben ausgelösten statischen Spannungsänderungen basiert. Um die räumliche Variation der Trigger-Parameter zu analysieren, fokussiere ich mich in meinem zweiten Modellansatz auf das Auftreten von Nachbeben infolge von großen Hauptbeben, sowie die Verteilung von Nachbebenparametern und deren räumliche Korrelation mit ko-/post-seismischen Verschiebungen und inter-seismischer Verhakung. Zum Bestimmen der Nachbebenparameter habe ich ein modifiziertes ETAS (m-ETAS) Modell analysiert, welches die räumliche Ausdehnung des Hauptbebenbruches berücksichtigen kann. Ich vergleiche die Ergebnisse des klassischen Ansatzes mit denen des m-ETAS Modells. Mein dritter Versuch beschäftigt sich mit dem zeitlichen Clustern der Seismizität, welche nicht nur auf Erdbeben-Erdbeben-Interaktion zurückzuführen ist, sondern auch auf eine zeitabhängige Hintergrundrate, die die Parameterabschätzung verfälschen kann. Meine Koautoren und ich haben dem ETAS Modell darum eine weitere Modifikation hinzugefügt, welche in der Lage ist, eine zeitabhängige Hintergrundaktivität einzubeziehen. Dieses Modell kann auf zwei Fälle angewendet werden, einerseits wenn ein Erdbebenkatalog zeitlich unvollständig ist und andererzeits wenn sich die Hintergrundseismizität, durch Vorhandensein aseismischer Kräfte, zeitlich verändert. Ein wichtiger Teil dieser Forschung ist es die entwickelten Modelle anhand von beobachteten Daten zu testen. Darum benutze ich im Falle des freigesetzten seismischen Moments einen globalen Erdbebenkatalog. Zur Bestimmung der räumlichen Verteilung von Trigger-Parametern untersuche ich zwei Nachbebensequenzen, die des 2010er Maule (Chile) Mw8.8 Erdbebens und die des 2011er Tohoku (Japan) Mw9.0 Erdbebens. Zusätzlich benutze ich publizierte geodätische Verschiebungsmodelle verschiedener Autoren. Um die Detektionsfähigkeit für aseismische Transienten zu testen, benutzen meine Koautoren und ich Daten aus West-Böhmen (Zentraleuropa) und Kalifornien. Unsere Ergebnisse zeigen: (1) Das Verhältnis des kumulativen seismischen Moments der Nachbeben zum Hauptbeben ist von den statischen Spannungsänderung abhängig und ist maximal in Spannungsregimen dominiert von Abschiebungen, mittel für Überschiebungen und minimal für Blattverschiebungen, wobei das RETAS Modell eine gute Korrelation mit unseren Ergebnissen zeigt. (2) Die mit dem m-ETAS Modell erhaltene räumliche Verteilung von Nachbebenparametern zeigt ungewöhnliche Werte in Gebieten reaktivierter krustaler Verwerfungssysteme. Zusätzlich fanden wir heraus, dass die Nachbebendichte mit dem ko-seismischen Verschiebungsgradienten, Nachkriechen, inter-seismischer Kopplung und b-Werten korreliert. Das seismische Moment untersuchter Nachbeben ist positiv korreliert mit Bereichen maximaler koseismischer Verschiebungen und interseismisch blockierten Bereichen. Diese Korrelation könnte dem Spannungsniveau oder räumlicher Variation der Materialeigenschaften geschuldet sein. (3) Wenn man aseismische transiente Kräfte oder zeitliche Katalogunvollständigkeit ignoriert, kann das zu signifikantem Unter- oder Überschätzen der zugrunde liegenden Seismizitäts-Parametern führen. Im Fall eines kompletten Katalogs kann diese Methode helfen, aseismische Quellen zu identifizieren. KW - aftershocks KW - statistical seismology KW - transient earthquake patterns KW - ETAS model KW - uncertainty estimation KW - statistische Seismologie KW - Nachbeben KW - transiente Erdbebenmuster KW - ETAS Modell KW - Abschätzung der Unsicherheiten Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86455 ER - TY - THES A1 - Eid-Sabbagh, Rami-Habib T1 - Business process architectures BT - concepts, formalism, and analysis N2 - Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance. This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection. In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models, understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques. N2 - Geschäftsprozessmanagement nimmt heutzutage eine zentrale Rolle zur Verbesserung von Geschäftsabläufen in Organisationen des öffentlichen und privaten Sektors ein. Im Laufe von Geschäftsprozessmanagementprojekten entstehen große Prozessmodellsammlungen mit hunderten und tausenden Prozessmodellen, die vielfältige Informationen enthalten. Mit der Entstehung großer Prozessmodellsammlungen, entstehen neue Herausforderungen. Diese beinhalten die Strukturierung und Organisation vieler Prozessmodelle, ihre Pflege und Aktualisierung, sowie ihre Qualitätssicherung. Mit diesen Herausforderungen befassen sich Geschäftsprozessarchitekturen. Viele der aktuellen Geschäftsprozessarchitekturen ordnen Geschäftsprozesse nach bestimmen Aspekten von Interesse, zum Beispiel, nach Zielen, Funktionen, oder Geschäftsobjekten. Diese Herangehensweisen bieten eine sehr abstrakte Kategorisierung von einzelnen Geschäftsprozessen, wobei sie wichtige Abhängigkeiten zwischen Prozessen ignorieren und so wertvolle Informationen verbergen. Die Produktion von Waren und das Anbieten von Dienstleistungen bilden ein komplexes System untereinander abhängiger Geschäftsprozesse. Diesbezüglich ist es unabdingbar eine ganzheitliche Sicht auf Geschäftsprozesse und ihre Abhängigkeiten zu schaffen, um die Geschäftsprozesse zu organisieren, zu analysieren und zu optimieren. Die Darstellung von Geschäftsprozessabhängigkeiten zeigt versteckte und implizite Informationen auf, die bisher in Geschäftsprozesssammlungen verborgen blieben. In dieser Arbeit stellen wir eine Geschäftsprozessarchitekturmethodik vor, die es erlaubt Geschäftsprozessabhänigigkeiten auf einer abstrakten Ebene darzustellen und zu analysieren. Wir führen eine formale Definition unserer Geschäftsprozessarchitektur und entsprechende Korrektheitskriterien ein. Darauf aufbauend stellen wir Analysetechniken für unsere Geschäftsprozessarchitektur vor. In einem Anwendungsrahmenwerk eläutern wir die top-down und bottomup Anwendung unserer Geschäftsprozessarchitekturmethodik. Dies beinhaltet die Beschreibung von Algorithmen zur Extraktion von Geschäftsprozessarchitekturen und zur Generierung von Prozessmodellen aus Geschäftsprozessarchitekturen, die die Konsistenz zwischen den Elementen auf Prozessmodellebene und Geschäftsprozessarchitekturebene gewährleisten. Aufbauend auf dem Extraktionsalgorithmus, stellen wir eine neue Technik zur Identifizierung, Extraktion, und Visualisierung von versteckten Datenabhängigkeiten zwischen Prozessmodellen in Geschäftsprozessdatenarchitekturen vor. Unsere Arbeit stellt Geschäftsprozessexperten, Manager, und Nutzern einer Geschäftsprozessmodellsammlung eine Methodik zur Verfügung, die es ihnen ermöglicht und vereinfacht, eine Übersicht über Prozesse und ihren Abhängigkeiten zu erstellen, diese zu verstehen und zu analysieren. Diesbezüglich haben wir unsere Geschäftsprozessarchitekturmethodik in einem empirischen Experiment auf ihre Anwendbarkeit und Effektivität untersucht und zur weiteren Evaluierung ausgewählte Algorithmen implementiert. KW - business process architecture KW - bpm KW - formalism KW - analysis KW - abstraction KW - Prozessarchitektur KW - Geschäftsprozessmanagement KW - Analyse KW - Abstraktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-79719 ER - TY - THES A1 - Böttle, Markus T1 - Coastal floods in view of sea level rise T1 - Küstenfluten im Hinblick auf steigende Meeresspiegel BT - assessing damage costs and adaptation measures BT - Abschätzung von Schadenskosten und Anpassungsmaßnahmen N2 - The sea level rise induced intensification of coastal floods is a serious threat to many regions in proximity to the ocean. Although severe flood events are rare they can entail enormous damage costs, especially when built-up areas are inundated. Fortunately, the mean sea level advances slowly and there is enough time for society to adapt to the changing environment. Most commonly, this is achieved by the construction or reinforcement of flood defence measures such as dykes or sea walls but also land use and disaster management are widely discussed options. Overall, albeit the projection of sea level rise impacts and the elaboration of adequate response strategies is amongst the most prominent topics in climate impact research, global damage estimates are vague and mostly rely on the same assessment models. The thesis at hand contributes to this issue by presenting a distinctive approach which facilitates large scale assessments as well as the comparability of results across regions. Moreover, we aim to improve the general understanding of the interplay between mean sea level rise, adaptation, and coastal flood damage. Our undertaking is based on two basic building blocks. Firstly, we make use of macroscopic flood-damage functions, i.e. damage functions that provide the total monetary damage within a delineated region (e.g. a city) caused by a flood of certain magnitude. After introducing a systematic methodology for the automatised derivation of such functions, we apply it to a total of 140 European cities and obtain a large set of damage curves utilisable for individual as well as comparative damage assessments. By scrutinising the resulting curves, we are further able to characterise the slope of the damage functions by means of a functional model. The proposed function has in general a sigmoidal shape but exhibits a power law increase for the relevant range of flood levels and we detect an average exponent of 3.4 for the considered cities. This finding represents an essential input for subsequent elaborations on the general interrelations of involved quantities. The second basic element of this work is extreme value theory which is employed to characterise the occurrence of flood events and in conjunction with a damage function provides the probability distribution of the annual damage in the area under study. The resulting approach is highly flexible as it assumes non-stationarity in all relevant parameters and can be easily applied to arbitrary regions, sea level, and adaptation scenarios. For instance, we find a doubling of expected flood damage in the city of Copenhagen for a rise in mean sea levels of only 11 cm. By following more general considerations, we succeed in deducing surprisingly simple functional expressions to describe the damage behaviour in a given region for varying mean sea levels, changing storm intensities, and supposed protection levels. We are thus able to project future flood damage by means of a reduced set of parameters, namely the aforementioned damage function exponent and the extreme value parameters. Similar examinations are carried out to quantify the aleatory uncertainty involved in these projections. In this regard, a decrease of (relative) uncertainty with rising mean sea levels is detected. Beyond that, we demonstrate how potential adaptation measures can be assessed in terms of a Cost-Benefit Analysis. This is exemplified by the Danish case study of Kalundborg, where amortisation times for a planned investment are estimated for several sea level scenarios and discount rates. N2 - Viele Regionen in Küstennähe sehen sich durch den Anstieg des mittleren Meeresspiegels einer erhöhten Hochwassergefahr ausgesetzt und die zunehmende Intensität extremer Flutereignisse stellt eine ernstzunehmende Bedrohung dar. Vor allem bei der Überschwemmung bebauter Gebiete können die resultierenden Schäden ein gewaltiges Ausmaß erreichen. Glücklicherweise steigt der mittlere Meeresspiegel langsam und es bleibt ausreichend Zeit sich an die verändernden Umweltbedingungen anzupassen. Dies geschieht üblicherweise durch den Bau oder die Verstärkung von Hochwasserschutzmaßnahmen wie z. B. Deichen oder Ufermauern aber auch angepasste Raumplanung und Katastrophenschutz sind vieldiskutierte Lösungsansätze. Obwohl die Folgenabschätzung des Meeresspiegelanstieges und die Entwicklung von entsprechenden Antwortstrategien zu den bedeutendsten Themen der Klimafolgenforschung gehören, bleiben globale Schadensschätzungen vage und stützen größtenteils auf den gleichen, wenigen Bewertungsmodellen. Diesem Umstand wollen wir mit der vorliegenden Arbeit Rechnung tragen und präsentieren einen eigenen Ansatz, der sowohl großskalige Abschätzungen als auch überregionale Vergleichbarkeit ermöglicht. Darüber hinaus leisten wir einen Beitrag zum allgemeinen Verständnis des Zusammenspiels zwischen dem mittleren Meeresspiegel, Anpassungsmaßnahmen und Flutschäden. Unser Vorhaben basiert auf zwei Grundbausteinen. Zum einen sind das makroskopische Flutschadensfunktionen, d. h. Schadensfunktionen zur Bestimmung des gesamten monetären Schadens in einem vorgegebenen Gebiet (z. B. einer Stadt) der durch eine Flut gewissen Ausmaßes verursacht wird. Dazu stellen wir einen systematischen Ansatz zur automatisierten Ermittlung solcher Kurven vor und bestimmen damit die Schadensfunktionen für 140 europäische Städte. Diese können sowohl für individuelle Schadensabschätzungen als auch für vergleichende, überregionale Studien herangezogen werden. Darüber hinaus ermöglicht die große Anzahl an Kurven eine grundlegende Charakterisierung des Anstieges der Schadensfunktion mit Hilfe eines funktionalen Modells. Das vorgeschlagene Modell ist im Allgemeinen s-förmig, weist jedoch für die relevanten Fluthöhen einen potenzgesetzartigen Anstieg auf und wir erhalten für die untersuchten Städte einen durchschnittlichen Exponenten von 3,4. Zur späteren Beschreibung der allgemeinen Zusammenhänge aller beteiligten Größen ist dieses Ergebnis von entscheidender Bedeutung. Der zweite grundlegende Baustein dieser Arbeit ist die Extremwerttheorie mittels derer wir das Auftreten von Flutereignissen schätzen und die in Verbindung mit einer Schadensfunktion die Wahrscheinlichkeitsverteilung der auftretenden Schäden im untersuchten Gebiet liefert. Da alle relevanten Parameter als variabel angenommen werden, bietet der beschriebene Ansatz größtmögliche Flexibilität und lässt sich auf beliebige Regionen anwenden. In Kopenhagen, beispielsweise, stellen wir bei einem Anstieg des mittleren Meeresspiegels von lediglich 11 cm bereits eine Verdopplung des jährlichen, zu erwarteten Schadens fest. Des Weiteren gelingt es uns, allgemeingültige funktionale Beziehungen zwischen den erwarteten Flutschäden und dem mittleren Meeresspiegel, sich verändernden Sturmbedingungen, sowie vorhandenen Schutzhöhen abzuleiten. Damit sind wir in der Lage, zukünftige Flutschäden auf Grundlage nur weniger Parameter zu schätzen: dem bereits erwähnten Exponenten der Schadensfuntion sowie den Extremwertparametern. Ähnliche Untersuchungen stellen wir zur Quantifizierung der aleatorischen Unsicherheit dieser Schätzungen an, wobei wir unter anderem einen Rückgang der Unsicherheit mit steigendem Meeresspiegel feststellen. Schlussendlich zeigen wir wie potenzielle Anpassungsmaßnahmen mit Hilfe einer Kosten-Nutzen-Analyse bewertet werden können. Dies wird anhand der dänischen Fallstudie Kalundborg veranschaulicht, für die wir die Amortisierungszeiten einer geplanten Investition für verschiedene Meeresspiegelszenarien und Diskontierungsraten untersuchen. KW - sea-level rise KW - flood damage KW - coastal flooding KW - Küstenfluten KW - Extremereignisse KW - Flutschäden KW - Meeresspiegelanstieg KW - Klimaanpassung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91074 ER - TY - THES A1 - Kniepert, Juliane T1 - Correlation between dynamic parameters and device performance of organic solar cells T1 - Zusammenhang zwischen den dynamischen Größen und der Effizienz Organischer Solarzellen N2 - Organic bulk heterojunction (BHJ) solar cells based on polymer:fullerene blends are a promising alternative for a low-cost solar energy conversion. Despite significant improvements of the power conversion efficiency in recent years, the fundamental working principles of these devices are yet not fully understood. In general, the current output of organic solar cells is determined by the generation of free charge carriers upon light absorption and their transport to the electrodes in competition to the loss of charge carriers due to recombination. The object of this thesis is to provide a comprehensive understanding of the dynamic processes and physical parameters determining the performance. A new approach for analyzing the characteristic current-voltage output was developed comprising the experimental determination of the efficiencies of charge carrier generation, recombination and transport, combined with numerical device simulations. Central issues at the beginning of this work were the influence of an electric field on the free carrier generation process and the contribution of generation, recombination and transport to the current-voltage characteristics. An elegant way to directly measure the field dependence of the free carrier generation is the Time Delayed Collection Field (TDCF) method. In TDCF charge carriers are generated by a short laser pulse and subsequently extracted by a defined rectangular voltage pulse. A new setup was established with an improved time resolution compared to former reports in literature. It was found that charge generation is in general independent of the electric field, in contrast to the current view in literature and opposed to the expectations of the Braun-Onsager model that was commonly used to describe the charge generation process. Even in cases where the charge generation was found to be field-dependend, numerical modelling showed that this field-dependence is in general not capable to account for the voltage dependence of the photocurrent. This highlights the importance of efficient charge extraction in competition to non-geminate recombination, which is the second objective of the thesis. Therefore, two different techniques were combined to characterize the dynamics and efficiency of non-geminate recombination under device-relevant conditions. One new approach is to perform TDCF measurements with increasing delay between generation and extraction of charges. Thus, TDCF was used for the first time to measure charge carrier generation, recombination and transport with the same experimental setup. This excludes experimental errors due to different measurement and preparation conditions and demonstrates the strength of this technique. An analytic model for the description of TDCF transients was developed and revealed the experimental conditions for which reliable results can be obtained. In particular, it turned out that the $RC$ time of the setup which is mainly given by the sample geometry has a significant influence on the shape of the transients which has to be considered for correct data analysis. Secondly, a complementary method was applied to characterize charge carrier recombination under steady state bias and illumination, i.e. under realistic operating conditions. This approach relies on the precise determination of the steady state carrier densities established in the active layer. It turned out that current techniques were not sufficient to measure carrier densities with the necessary accuracy. Therefore, a new technique {Bias Assisted Charge Extraction} (BACE) was developed. Here, the charge carriers photogenerated under steady state illumination are extracted by applying a high reverse bias. The accelerated extraction compared to conventional charge extraction minimizes losses through non-geminate recombination and trapping during extraction. By performing numerical device simulations under steady state, conditions were established under which quantitative information on the dynamics can be retrieved from BACE measurements. The applied experimental techniques allowed to sensitively analyse and quantify geminate and non-geminate recombination losses along with charge transport in organic solar cells. A full analysis was exemplarily demonstrated for two prominent polymer-fullerene blends. The model system P3HT:PCBM spincast from chloroform (as prepared) exhibits poor power conversion efficiencies (PCE) on the order of 0.5%, mainly caused by low fill factors (FF) and currents. It could be shown that the performance of these devices is limited by the hole transport and large bimolecular recombination (BMR) losses, while geminate recombination losses are insignificant. The low polymer crystallinity and poor interconnection between the polymer and fullerene domains leads to a hole mobility of the order of 10^-7 cm^2/Vs which is several orders of magnitude lower than the electron mobility in these devices. The concomitant build up of space charge hinders extraction of both electrons and holes and promotes bimolecular recombination losses. Thermal annealing of P3HT:PCBM blends directly after spin coating improves crystallinity and interconnection of the polymer and the fullerene phase and results in comparatively high electron and hole mobilities in the order of 10^-3 cm^2/Vs and 10^-4 cm^2/Vs, respectively. In addition, a coarsening of the domain sizes leads to a reduction of the BMR by one order of magnitude. High charge carrier mobilities and low recombination losses result in comparatively high FF (>65%) and short circuit current (J_SC ≈ 10 mA/cm^2). The overall device performance (PCE ≈ 4%) is only limited by a rather low spectral overlap of absorption and solar emission and a small V_OC, given by the energetics of the P3HT. From this point of view the combination of the low bandgap polymer PTB7 with PCBM is a promising approach. In BHJ solar cells, this polymer leads to a higher V_OC due to optimized energetics with PCBM. However, the J_SC in these (unoptimized) devices is similar to the J_SC in the optimized blend with P3HT and the FF is rather low (≈ 50%). It turned out that the unoptimized PTB7:PCBM blends suffer from high BMR, a low electron mobility of the order of 10^-5 cm^2/Vs and geminate recombination losses due to field dependent charge carrier generation. The use of the solvent additive DIO optimizes the blend morphology, mainly by suppressing the formation of very large fullerene domains and by forming a more uniform structure of well interconnected donor and acceptor domains of the order of a few nanometers. Our analysis shows that this results in an increase of the electron mobility by about one order of magnitude (3 x 10^-4 cm^2/Vs), while BMR and geminate recombination losses are significantly reduced. In total these effects improve the J_SC (≈ 17 mA/cm^2) and the FF (> 70%). In 2012 this polymer/fullerene combination resulted in a record PCE for a single junction OSC of 9.2%. Remarkably, the numerical device simulations revealed that the specific shape of the J-V characteristics depends very sensitively to the variation of not only one, but all dynamic parameters. On the one hand this proves that the experimentally determined parameters, if leading to a good match between simulated and measured J-V curves, are realistic and reliable. On the other hand it also emphasizes the importance to consider all involved dynamic quantities, namely charge carrier generation, geminate and non-geminate recombination as well as electron and hole mobilities. The measurement or investigation of only a subset of these parameters as frequently found in literature will lead to an incomplete picture and possibly to misleading conclusions. Importantly, the comparison of the numerical device simulation employing the measured parameters and the experimental $J-V$ characteristics allows to identify loss channels and limitations of OSC. For example, it turned out that inefficient extraction of charge carriers is a criticical limitation factor that is often disobeyed. However, efficient and fast transport of charges becomes more and more important with the development of new low bandgap materials with very high internal quantum efficiencies. Likewise, due to moderate charge carrier mobilities, the active layer thicknesses of current high-performance devices are usually limited to around 100 nm. However, larger layer thicknesses would be more favourable with respect to higher current output and robustness of production. Newly designed donor materials should therefore at best show a high tendency to form crystalline structures, as observed in P3HT, combined with the optimized energetics and quantum efficiency of, for example, PTB7. N2 - Organische Solarzellen aus Polymer-Fulleren Mischschichten sind eine vielversprechende Alternative für eine kostengünstige Quelle erneuerbarer Energien. Jedoch sind trotz intensiver Forschung und bedeutenden Verbesserungen der Effizienzen während der letzten Jahre, die fundamentalen Prozesse in diesen Solarzellen noch immer nicht vollständig verstanden. Im Allgemeinen wird der Photostrom in organischen Solarzellen durch die Generation freier Ladungsträger nach Absorption von Licht und dem anschliessenden Transport dieser Ladungsträger zu den Elektroden bestimmt, wobei ein Teil durch Rekombination verloren geht. Das Ziel dieser Dissertation ist es, zu einem umfassenden Verständnis aller dynamischen Prozesse und relevanten physikalischen Parameter und deren Zusammenhang mit der Solarzelleneffizienz beizutragen. Dabei wurde eine neue Herangehensweise zur Analyse der Strom-Spannungskennlinien entwickelt, die auf der experimentellen Bestimmung von Ladungsträgergeneration, Rekombination und Transport im Vergleich mit numerischen Simulationen beruht. Die zentralen Fragestellungen zu Beginn der Arbeit waren, in welchem Masse die Ladungsträgergeneration von der Stärke des elektrischen Feldes abhängt und in wie weit die einzelnen Prozesse Generation, Rekombination und Transport zum charakteristischen Verlauf der Strom-Spannungskennlinie beitragen. Eine elegante Methode um direkt die Feldabhängigkeit der Ladungsträgergeneration zu bestimmen, ist die Time Delayed Collection Field (TDCF) Methode. Dabei werden in der Solarzelle Ladungsträger mit einem kurzen Laserpuls erzeugt und anschliessend mit einem wohldefinierten rechteckigen Spannungspuls extrahiert. Im Rahmen dieser Arbeit wurde ein neuer Versuchsaufbau mit stark verbesserter Zeitauflösung im Vergleich zu vorangegangenen Arbeiten aufgebaut. Es hat sich gezeigt, dass die Generation im Allgemeinen nicht vom elektrischen Feld abhängt. Dies steht im Widerspruch zu dem in der Literatur häufig verwendeten Braun-Onsager Modell zur Beschreibung der Ladungsgeneration. Selbst in Fällen, in denen eine feldabhängige Generation gemessen wurde, reichte diese im Allgemeinen nicht aus, um die Spannungsabhängigkeit des Photostroms in diesen Zellen zu erklären. Dies führt zu der zunehmenden Bedeutung einer effizienten Ladungsextraktion in Konkurrenz zur nicht-geminalen Rekombination, welche die zweite wichtige Fragestellung in dieser Arbeit war. Dazu wurden zwei neue Herangehensweisen zur Messung der Rekombinationsdynamik unter Solarzellen-relevanten Messbedingungen erarbeitet. Zum Einen wurde zum ersten Mal TDCF zur Messung von Rekombination und Transport verwendet. Der Vorteil ist, dass die Messung aller drei relevanten Prozesse in einem Versuchsaufbau zu einer höheren Genauigkeit führt, da experimentelle Fehler durch unterschiedliche Probenpräparation und Messbedingungen ausgeschlossen werden können. Es wurde ein analytisches Modell zur Beschreibung der TDCF Transienten entwickelt, welches direkt Rückschlüsse auf die notwendigen Messbedingungen erlaubt, unter denen zuverlässige Ergebnisse erzielt werden können. Insbesondere hat sich dabei gezeigt, dass die RC-Zeit des Aufbaus, die hauptsächlich durch die Probengeometrie bestimmt wird, einen wesentlichen Einfluss auf die Transienten hat, welcher in der Datenauswertung nicht vernachlässigt werden darf. Zum Anderen wurde eine komplementäre Methode zur Messung der Rekombination im Gleichgewicht benutzt, die auf der genauen Bestimmung der statischen Ladungsträgerdichte unter Beleuchtung basiert. Es zeigte sich, dass die in der Literatur etablierten Methoden zur Ladungsträgerbestimmung nicht ausreichend genau waren. Daher wurde eine neue, sensitive Technik entwickelt, die Bias Assisted Charge Extraction (BACE) Methode. Dabei werden die unter kontinuierlicher Beleuchtung generierten Ladungsträger mit einem hohen angelegten elektrischen Feld extrahiert. Dies führt zu einer beschleunigten Extraktion im Vergleich zur konventionellen Charge Extraction Methode, welche die Verluste durch Rekombination und Trapping deutlich reduziert. Mit Hilfe von numerischen Simulationen wurden Bedingungen festgelegt, unter denen zuverlässige Messungen mit BACE möglich sind. Mit den vorgestellten Methoden können alle relevanten Parameter für Generation, Rekombination und Transport experimentell sehr genau bestimmt und analysiert werden. Dies wurde exemplarisch für zwei in der Literatur bedeutende Materialsysteme durchgeführt. Das Modellsystem P3HT:PCBM, hergestellt aus dem Lösungsmittel Chloroform, weist direkt nach der Präparation nur sehr niedrige Effizienzen im Bereich von 0.5% auf, die vor allem durch niedrige Ströme und Füllfaktoren (FF) gekennzeichnet sind. Es konnte gezeigt werden, dass die Effizienz dieser Zellen durch den sehr langsamen Lochtransport und die starke bimolekulare Rekombination begrenzt wird, während Verluste durch geminale Rekombination eher unbedeutend sind. Eine geringe Kristallinität des Polymers und schlechte Verbindungen zwischen den Polymerdomänen führt zu einer Lochmobilität von nur 10^7 cm^2/Vs. Diese ist mehrere Grössenordnungen kleiner als die Elektronenmobilität in diesen Zellen, was den Aufbau von Raumladungen zur Folge hat und damit die Extraktion von beiden Ladungsträgern behindert und bimolekulare Rekombination begünstigt. Die thermische Behandlung der P3HT:PCBM Proben direkt nach dem Spin Coating verbessert sowohl die Kristallinität als auch die Vernetzung der Polymer- und Fullerenphasen. Dies führt zu vergleichsweise hohen Mobilitäten für Elektronen (10^3 cm^2/Vs) und Löcher (10^4 cm^2/Vs). Zusätzlich reduziert eine Vergrösserung der Domänenstruktur die bimolekulare Rekombination um eine Grössenordnung. Die hohen Mobilitäten und niedrigen Rekombinationverluste resultieren in vergleichsweise hohen FF (> 65%) und Strömen (J_SC ≈ 10 mA/cm^2). Die Effizienz (≈ 4%) wird dabei nur durch den eher geringen spektralen Überlapp zwischen Absorptions- und Sonnenemissionsspektrum begrenzt und einer geringen Leerlaufspannung (V_OC), verursacht durch die ungünstige Energetik des P3HT. Aus dieser Perspektive ist die Kombination des Low-Bandgap Polymers PTB7 mit dem Fullerenderivat PCBM ein vielversprechender Ansatz. Aufgrund der angepassten Energetik führt diese Kombination in Mischschichtsolarzellen zu einer höheren V_OC. Jedoch ist der Kurzschlussstrom (J_SC) in den unoptimierten Zellen gegenüber dem der optimierten P3HT:PCBM Zellen nicht erhöht und die FF sind niedrig (≈ 50%). Die Untersuchungen ergaben, dass die Dynamik in den unoptimierten PTB7:PCBM Zellen durch hohe bimolekulare Rekombination (BMR), eine niedrige Elektronenmobilität im Bereich von 10^5 cm^2/Vs und nicht-geminalen Rekombinationsverslusten aufgrund einer feldabhängigen Generation geprägt ist. Die Zugabe des Lösungsmitteladditivs DIO bei der Probenpräparation optimiert die Morphologie in der Schicht. Dabei wird hauptsächlich die Formation von sehr grossen Fullerendomänen unterdrückt und eine gleichmässige Struktur von gut vernetzten, nanometergrossen Donor- und Akzeptordomänen ausgebildet. Unsere Analyse zeigt, dass dadurch die Elektronenmobilität um ca eine Grössenordnung erhöht wird (auf 3 x 10^4 cm^2/Vs), während BMR und geminale Rekombination deutlich unterdrückt werden. Zusammen genommen verbessern diese Effekte sowohl den J_SC (≈ 17 mA/cm^2) als auch den FF (> 70%). Im Jahr 2012 führten die optimierten PTB7:PCBM Solarzellen damit zu einer Rekordeffizienz für organische Solarzellen von 9.2%. Von grösserer Bedeutung ist jedoch, dass der Vergleich zwischen den gemessenen und simulierten Strom-Spannungskennlinien, mit experimentell bestimmten Eingangsparametern, Rückschlüsse auf die entsprechenden Verlustkanäle in den jeweiligen Solarzellen erlaubt. Hierbei zeigte sich, dass die effiziente Extraktion von Ladungsträgern ein kritischer Faktor ist, der in der Literatur oft unterschätzt wird. Der effiziente und schnelle Transport von Ladungen wird aber gerade im Hinblick auf neue Low-Bandgap Materialien mit sehr hohen internen Quanteneffizienzen immer wichtiger. Moderate Mobilitäten limitieren die möglichen Schichtdicken auf ca 100 nm. Grössere Schichtdicken wären jedoch vorteilhafter im Hinblick auf höhere Ausgangsströme und der Robustheit des Produktionsprozesses. Neu entwickelte Donormaterialien sollten daher sowohl möglichst kristalline Strukturen ausbilden mit einhergehenden hohen Mobilitäten, wie beim P3HT, als auch optimierte Energieniveaus und Quanteneffizienzen aufweisen, wie beispielsweise PTB7. KW - organic solar cells KW - optoelectronic measurements KW - transient methods KW - numeric device simulations KW - organische Solarzellen KW - optoelektronische Messungen KW - transiente Messmethoden KW - numerische Bauteilsimulationen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90087 ER - TY - THES A1 - Wettstein, Christoph T1 - Cytochrome c-DNA and cytochrome c-enzyme interactions for the construction of analytical signal chains N2 - Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins. In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA. Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible. Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications. N2 - In den Energiegewinnungsprozessen der Zellen spielen biochemische Reaktion, die auf Elektronentransfer (ET) basieren, eine wichtige Rolle. So sind die Proteinkomplexe der Atmungskette, welche an der inneren Membran der Mitochondrien abläuft, über eine ET-Kette miteinander verbunden. In biotechnologischen Anwendungen wird dieses Phänomen genutzt um Proteine auf der Oberfläche von Elektroden als funktionierende ET-Ketten zu arrangieren. Dabei kann der ET innerhalb dieser Kaskaden als elektrischer Strom gemessen und als Signal betrachtet werden. Dies ermöglicht die Anwendung von proteinmodifizierten Elektroden als Biosensoren und Biobrennstoffzellen. Ein geeigneter Baustein für den Aufbau vielschichtiger ET-Systeme ist das kleine, eisenhaltige Protein Cytochrom c (Cyt c), welches in der Lage ist Elektronen aufzunehmen, zu transportieren und wieder abzugeben. Als zweiter Baustein dient das lange, fadenartige Biomolekül DNA. DNA und Cyt c interagieren unter bestimmten Bedingungen aufgrund ihrer entgegengesetzten Oberflächenladungen. Dies ermöglicht den schichtweisen Aufbau stabiler Cyt c/DNA-Multischichten (MS) auf Elektrodenoberflächen, welche durch die sogenannte Layer-by-Layer (LbL) Technik aufgebaut werden. In diesen MS Systemen behält Cyt c trotz der Immobilisierung seine Beweglichkeit um die eigene Achse, wodurch der Selbstaustausch von Elektronen zwischen den Cyt c Molekülen sowie der ET zur Elektrode gewährleistet wird. Der molekulare Aufbau der Cyt c/DNA MS sowie die Interaktion zwischen den zwei biologischen Bausteine ist weitgehend unerforscht, daher wurden in der vorliegenden Studie die genauen Bedingungen der Cyt c/DNA Interaktion in Lösung untersucht. Außerdem wird die Eignung des MS Systems zur Einbettung von Enzymen getestet. Die Bausteine des MS-Systems, Cyt c und DNA bilden in Lösung stabile Komplexe unter den Assemblierungsbedingungen der MS (d.h. pH 5.0 und geringe Salzkonzentration). Im Vergleich dazu tritt bei pH 7.0 eine schwächere Interaktion auf, die für eine Komplexbildung nicht ausreicht. Dies ermöglicht die Untersuchung der Interaktion mittels Kernspinresonanzspektroskopie (NMR, engl. nuclear magnetic resonance spectroscopy), wobei die Interaktionsstellen des DNA-Moleküls auf Cyt c bestimmt werden. Im Vergleich zu pH 7.0 wird im leicht sauren pH-Bereich (6.0) eine erhöhte Anzahl an Interaktionspunkten gefunden, was Rückschlüsse auf eine erhöhte Interaktion zulässt. Dies resultiert schließlich in der starken Bindung bei pH 5.0, die den Aufbau stabiler Cyt c/DNA-MS auf Elektrodenoberflächen ermöglicht. Darüber hinaus spielen der Salzgehalt der Lösung sowie das Konzentrationsverhältnis von Cyt c und DNA eine wichtige Rolle. Auf der Grundlage des Cyt c/DNA-MS Aufbaus sollte durch die Kopplung eines Enzymes eine Signalkette mit sensorischen Eigenschaften geschaffen werden. Das Enzym dient dabei als Erkennungselement für bestimmte Moleküle in Lösung. Durch die Reaktion des Enzyms mit dem Molekül wird ein bioelektrisches Signal generiert, das durch elektrochemische Methoden gemessen wird. Dies wurde mit zwei verschiedenen Enzymen, der Glukose Dehydrogenase (GDH) und der Fruktose Dehydrogenase (FDH), untersucht. Beide Enzyme waren in der Lage mit einer Cyt c Monoschicht zu kommunizieren und konnten mit dem redox Protein auf der Elektrodenoberfläche immobilisiert werden. GDH konnte erfolgreich mit dem Cyt c/DNA-MS System gekoppelt und die Sensoreigenschaften der so aufgebauten Elektronentransferkette charakterisiert werden. Zusammenfassend charakterisiert diese Arbeit die Bedingungen der Cyt c/DNA-Komplexbildung und gibt einen Einblick in die bisher unbekannte Interaktion zwischen Cyt c und DNA auf der molekularen Ebene. Darüber hinaus wird die Nutzbarkeit des Cyt c/DNA MS Systems zur Einbettung von Enzymen am Beispiel der GDH gezeigt und schafft somit die Grundlage für das bessere Verständnis von ET Reaktionen zwischen Proteinen auf Elektrodenoberflächen. T2 - Cytochrom c-DNA und Cytochrom c-Enzym Interaktion für den Aufbau analytischer Signalketten KW - biosensor KW - protein KW - DNA KW - enzyme KW - interaction KW - DNA KW - Biosensor KW - Enzym KW - Interaktion KW - Protein Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78367 ER - TY - THES A1 - Meyer, Andreas T1 - Data perspective in business process management T1 - Daten im Geschäftsprozessmanagement BT - the role of data for process modeling, analysis, and execution BT - ihre Rolle für Prozessmodellierung, -analyse und -ausführung N2 - Geschäftsprozessmanagement ist ein strukturierter Ansatz zur Modellierung, Analyse, Steuerung und Ausführung von Geschäftsprozessen, um Geschäftsziele zu erreichen. Es stützt sich dabei auf konzeptionelle Modelle, von denen Prozessmodelle am weitesten verbreitet sind. Prozessmodelle beschreiben wer welche Aufgabe auszuführen hat, um das Geschäftsziel zu erreichen, und welche Informationen dafür benötigt werden. Damit beinhalten Prozessmodelle Informationen über den Kontrollfluss, die Zuweisung von Verantwortlichkeiten, den Datenfluss und Informationssysteme. Die Automatisierung von Geschäftsprozessen erhöht die Effizienz der Arbeitserledigung und wird durch Process Engines unterstützt. Dafür werden jedoch Informationen über den Kontrollfluss, die Zuweisung von Verantwortlichkeiten für Aufgaben und den Datenfluss benötigt. Während aktuelle Process Engines die ersten beiden Informationen weitgehend automatisiert verarbeiten können, müssen Daten manuell implementiert und gewartet werden. Dem entgegen verspricht ein modell-getriebenes Behandeln von Daten eine vereinfachte Implementation in der Process Engine und verringert gleichzeitig die Fehleranfälligkeit dank einer graphischen Visualisierung und reduziert den Entwicklungsaufwand durch Codegenerierung. Die vorliegende Dissertation beschäftigt sich mit der Modellierung, der Analyse und der Ausführung von Daten in Geschäftsprozessen. Als formale Basis für die Prozessausführung wird ein konzeptuelles Framework für die Integration von Prozessen und Daten eingeführt. Dieses Framework wird durch operationelle Semantik ergänzt, die mittels einem um Daten erweiterten Petrinetz-Mapping vorgestellt wird. Die modellgetriebene Ausführung von Daten muss komplexe Datenabhängigkeiten, Prozessdaten und den Datenaustausch berücksichtigen. Letzterer tritt bei der Kommunikation zwischen mehreren Prozessteilnehmern auf. Diese Arbeit nutzt Konzepte aus dem Bereich der Datenbanken und überführt diese ins Geschäftsprozessmanagement, um Datenoperationen zu unterscheiden, um Abhängigkeiten zwischen Datenobjekten des gleichen und verschiedenen Typs zu spezifizieren, um modellierte Datenknoten sowie empfangene Nachrichten zur richtigen laufenden Prozessinstanz zu korrelieren und um Nachrichten für die Prozessübergreifende Kommunikation zu generieren. Der entsprechende Ansatz ist nicht auf eine bestimmte Prozessbeschreibungssprache begrenzt und wurde prototypisch implementiert. Die Automatisierung der Datenbehandlung in Geschäftsprozessen erfordert entsprechend annotierte und korrekte Prozessmodelle. Als Unterstützung zur Datenannotierung führt diese Arbeit einen Algorithmus ein, welcher Informationen über Datenknoten, deren Zustände und Datenabhängigkeiten aus Kontrollflussinformationen extrahiert und die Prozessmodelle entsprechend annotiert. Allerdings können gewöhnlich nicht alle erforderlichen Informationen aus Kontrollflussinformationen extrahiert werden, da detaillierte Angaben über mögliche Datenmanipulationen fehlen. Deshalb sind weitere Prozessmodellverfeinerungen notwendig. Basierend auf einer Menge von Objektlebenszyklen kann ein Prozessmodell derart verfeinert werden, dass die in den Objektlebenszyklen spezifizierten Datenmanipulationen automatisiert in ein Prozessmodell überführt werden können. Prozessmodelle stellen eine Abstraktion dar. Somit fokussieren sie auf verschiedene Teilbereiche und stellen diese im Detail dar. Solche Detailbereiche sind beispielsweise die Kontrollflusssicht und die Datenflusssicht, welche oft durch Aktivitäts-zentrierte beziehungsweise Objekt-zentrierte Prozessmodelle abgebildet werden. In der vorliegenden Arbeit werden Algorithmen zur Transformation zwischen diesen Sichten beschrieben. Zur Sicherstellung der Modellkorrektheit wird das Konzept der „weak conformance“ zur Überprüfung der Konsistenz zwischen Objektlebenszyklen und dem Prozessmodell eingeführt. Dabei darf das Prozessmodell nur Datenmanipulationen enthalten, die auch in einem Objektlebenszyklus spezifiziert sind. Die Korrektheit wird mittels Soundness-Überprüfung einer hybriden Darstellung ermittelt, so dass Kontrollfluss- und Datenkorrektheit integriert überprüft werden. Um eine korrekte Ausführung des Prozessmodells zu gewährleisten, müssen gefundene Inkonsistenzen korrigiert werden. Dafür werden für jede Inkonsistenz alternative Vorschläge zur Modelladaption identifiziert und vorgeschlagen. Zusammengefasst, unter Einsatz der Ergebnisse dieser Dissertation können Geschäftsprozesse modellgetrieben ausgeführt werden unter Berücksichtigung sowohl von Daten als auch den zuvor bereits unterstützten Perspektiven bezüglich Kontrollfluss und Verantwortlichkeiten. Dabei wird die Modellerstellung teilweise mit automatisierten Algorithmen unterstützt und die Modellkonsistenz durch Datenkorrektheitsüberprüfungen gewährleistet. N2 - Business process management (BPM) is a systematic and structured approach to model, analyze, control, and execute business operations also referred to as business processes that get carried out to achieve business goals. Central to BPM are conceptual models. Most prominently, process models describe which tasks are to be executed by whom utilizing which information to reach a business goal. Process models generally cover the perspectives of control flow, resource, data flow, and information systems. Execution of business processes leads to the work actually being carried out. Automating them increases the efficiency and is usually supported by process engines. This, though, requires the coverage of control flow, resource assignments, and process data. While the first two perspectives are well supported in current process engines, data handling needs to be implemented and maintained manually. However, model-driven data handling promises to ease implementation, reduces the error-proneness through graphical visualization, and reduces development efforts through code generation. This thesis addresses the modeling, analysis, and execution of data in business processes and presents a novel approach to execute data-annotated process models entirely model-driven. As a first step and formal grounding for the process execution, a conceptual framework for the integration of processes and data is introduced. This framework is complemented by operational semantics through a Petri net mapping extended with data considerations. Model-driven data execution comprises the handling of complex data dependencies, process data, and data exchange in case of communication between multiple process participants. This thesis introduces concepts from the database domain into BPM to enable the distinction of data operations, to specify relations between data objects of the same as well as of different types, to correlate modeled data nodes as well as received messages to the correct run-time process instances, and to generate messages for inter-process communication. The underlying approach, which is not limited to a particular process description language, has been implemented as proof-of-concept. Automation of data handling in business processes requires data-annotated and correct process models. Targeting the former, algorithms are introduced to extract information about data nodes, their states, and data dependencies from control information and to annotate the process model accordingly. Usually, not all required information can be extracted from control flow information, since some data manipulations are not specified. This requires further refinement of the process model. Given a set of object life cycles specifying allowed data manipulations, automated refinement of the process model towards containment of all data manipulations is enabled. Process models are an abstraction focusing on specific aspects in detail, e.g., the control flow and the data flow views are often represented through activity-centric and object-centric process models. This thesis introduces algorithms for roundtrip transformations enabling the stakeholder to add information to the process model in the view being most appropriate. Targeting process model correctness, this thesis introduces the notion of weak conformance that checks for consistency between given object life cycles and the process model such that the process model may only utilize data manipulations specified directly or indirectly in an object life cycle. The notion is computed via soundness checking of a hybrid representation integrating control flow and data flow correctness checking. Making a process model executable, identified violations must be corrected. Therefore, an approach is proposed that identifies for each violation multiple, alternative changes to the process model or the object life cycles. Utilizing the results of this thesis, business processes can be executed entirely model-driven from the data perspective in addition to the control flow and resource perspectives already supported before. Thereby, the model creation is supported by algorithms partly automating the creation process while model consistency is ensured by data correctness checks. KW - business process management KW - process automation KW - model-driven KW - data KW - data objects KW - model transformation KW - data correctness checking KW - process refinement KW - data extraction KW - data states KW - formal framework KW - process and data integration KW - Geschäftsprozessmanagement KW - Prozessautomatisierung KW - Modellgetrieben KW - Daten KW - Datenobjekte KW - Modelltransformation KW - Datenkorrektheit KW - Prozessverfeinerung KW - Datenextraktion KW - Datenzustände KW - formales Framework KW - Prozess- und Datenintegration Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84806 ER - TY - THES A1 - Torres Acosta, Verónica T1 - Denudation processes in a tectonically active rift on different time scales T1 - Denudationsprozesse eines tektonisch aktiven Rifts auf unterschiedlichen Zeitskalen BT - new insights from thermochronology and CRN dating in the Kenya Rift BT - neue Erkenntnisse aus Thermochronologie und CRN-Datierungen im Kenia Rift N2 - Continental rifts are excellent regions where the interplay between extension, the build-up of topography, erosion and sedimentation can be evaluated in the context of landscape evolution. Rift basins also constitute important archives that potentially record the evolution and migration of species and the change of sedimentary conditions as a result of climatic change. Finally, rifts have increasingly become targets of resource exploration, such as hydrocarbons or geothermal systems. The study of extensional processes and the factors that further modify the mainly climate-driven surface process regime helps to identify changes in past and present tectonic and geomorphic processes that are ultimately recorded in rift landscapes. The Cenozoic East African Rift System (EARS) is an exemplary continental rift system and ideal natural laboratory to observe such interactions. The eastern and western branches of the EARS constitute first-order tectonic and topographic features in East Africa, which exert a profound influence on the evolution of topography, the distribution and amount of rainfall, and thus the efficiency of surface processes. The Kenya Rift is an integral part of the eastern branch of the EARS and is characterized by high-relief rift escarpments bounded by normal faults, gently tilted rift shoulders, and volcanic centers along the rift axis. Considering the Cenozoic tectonic processes in the Kenya Rift, the tectonically controlled cooling history of rift shoulders, the subsidence history of rift basins, and the sedimentation along and across the rift, may help to elucidate the morphotectonic evolution of this extensional province. While tectonic forcing of surface processes may play a minor role in the low-strain rift on centennial to millennial timescales, it may be hypothesized that erosion and sedimentation processes impacted by climate shifts associated with pronounced changes in the availability in moisture may have left important imprints in the landscape. In this thesis I combined thermochronological, geomorphic field observations, and morphometry of digital elevation models to reconstruct exhumation processes and erosion rates, as well as the effects of climate on the erosion processes in different sectors of the rift. I present three sets of results: (1) new thermochronological data from the northern and central parts of the rift to quantitatively constrain the Tertiary exhumation and thermal evolution of the Kenya Rift. (2) 10Be-derived catchment-wide mean denudation rates from the northern, central and southern rift that characterize erosional processes on millennial to present-day timescales; and (3) paleo-denudation rates in the northern rift to constrain climatically controlled shifts in paleoenvironmental conditions during the early Holocene (African Humid Period). Taken together, my studies show that time-temperature histories derived from apatite fission track (AFT) analysis, zircon (U-Th)/He dating, and thermal modeling bracket the onset of rifting in the Kenya Rift between 65-50 Ma and about 15 Ma to the present. These two episodes are marked by rapid exhumation and, uplift of the rift shoulders. Between 45 and 15 Ma the margins of the rift experienced very slow erosion/exhumation, with the accommodation of sediments in the rift basin. In addition, I determined that present-day denudation rates in sparsely vegetated parts of the Kenya Rift amount to 0.13 mm/yr, whereas denudation rates in humid and more densely vegetated sectors of the rift flanks reach a maximum of 0.08 mm/yr, despite steeper hillslopes. I inferred that hillslope gradient and vegetation cover control most of the variation in denudation rates across the Kenya Rift today. Importantly, my results support the notion that vegetation cover plays a fundamental role in determining the voracity of erosion of hillslopes through its stabilizing effects on the land surface. Finally, in a pilot study I highlighted how paleo-denudation rates in climatic threshold areas changed significantly during times of transient hydrologic conditions and involved a sixfold increase in erosion rates during increased humidity. This assessment is based on cosmogenic nuclide (10Be) dating of quartzitic deltaic sands that were deposited in the northern Kenya Rift during a highstand of Lake Suguta, which was associated with the Holocene African Humid Period. Taken together, my new results document the role of climate variability in erosion processes that impact climatic threshold environments, which may provide a template for potential future impacts of climate-driven changes in surface processes in the course of Global Change. N2 - Kontinentale Riftsysteme wie das ostafrikanische Riftsystem (OARS) bieten ideale Voraussetzungen, um die verschiedenen Wechselwirkungen zwischen Extension, Änderungen in der Topographie, Erosion und Sedimentation im Zusammenhang mit Prozessen der Landschaftsentwicklung auf unterschiedlichen Zeitskalen zu untersuchen. Darüber hinaus spielen diese Regionen eine bedeutsame Rolle für die Entwicklung und Verbreitung der Arten und stellen durch eine kontinuierliche Entwicklung von Sedimentationsräumen und die in ihnen gespeicherten Klimasignale wichtige Klimaarchive dar. Rifts sind außerdem wichtige Regionen, in denen Maßnahmen zur Exploration natürlicher Ressourcen zunehmend wichtiger werden. Von Bedeutung ist hier, diese Prozesse und ihre Auslösemechanismen besser zu verstehen und Veränderungen in den tektonischen und geomorphologischen Prozessen der Vergangenheit und der Gegenwart zu identifizieren, deren Raten zu bestimmen und in den Kontext der Landschaftsentwicklung zu setzen. Das OARS ist eine markante tektonische und topographische Erscheinung in Ostafrika, die einen tiefgreifenden Einfluss auf die Verteilung und Menge von Niederschlägen und damit auf die Effizienz von Oberflächenprozessen hat. Das Kenia-Rift ist ein integraler Bestandteil des östlichen Zweigs des OARS und ist durch ausgeprägte Riftflanken mit Abschiebungen, und flacheren Riftschultern sowie vulkanischen Zentren entlang des Grabens gekennzeichnet. In Anbetracht der tektonischen Prozesse im Kenia-Rift während der letzten 60 Millionen Jahre, bilden die Bestimmung der Abkühlungsgeschichte der Riftschultern, sowie die Ablagerungsgeschichte im Riftbecken und auf den Riftschultern die Grundlage für die Rekonstruktion der strukturellen Entwicklung des Rifts. Auf kurzen, hundertjährigen bis tausendjährigen Zeitskalen, spielt tektonische Aktivität aufgrund langsamer Deformationsraten eine untergeordnete Rolle bei der Kontrolle von Erosion und Sedimentation. Dem gegenüber stehen klimagesteuerte Prozesse, die die Verfügbarkeit von Feuchtigkeit, die Niederschlagstätigkeit, die Vegetationsbedeckung sowie die Erosionsprozesse kontrollieren. In dieser Dissertation habe ich thermochronologische Untersuchungen, geomorphologische Geländeergebnisse und morphometrische Analysen an digitalen Geländemodellen kombiniert, um Exhumationsprozesse und Erosionsraten sowie die Wirkung des Klimas auf die känozoische Entwicklung des Kenia-Rifts zu rekonstruieren. Ich präsentiere: (1) neue thermochronologische Daten aus den nördlichen und zentralen Teilen des Kenia-Rifts, um quantitative Angaben zur Exhumationsgeschichte und der thermischen Entwicklung im Känozoikum zu erhalten, die letztlich die Basis für regionale Riftmodelle bilden und die Dynamik der Riftbildung im Inneren eines Kontinents beleuchten; (2) mittlere Denudationsraten (mithilfe des kosmogenen Nuklids 10Be) in Einzugsgebieten des nördlichen, zentralen und südlichen Rifts um Abhängigkeiten der Erosionsprozesse von klimatischen, lithologischen und tektonischen Parametern auf einer Zeitskala von mehreren 10^3 Jahren zu erfassen; (3) Paläo-Denudationsraten im nördlichen Rift, um klimatisch kontrollierte Veränderungen der Umweltbedingungen im Früh-Holozän zu bestimmen. Meine Studien zeigen, dass Zeit-Temperatur-Pfade von Apatit Spaltspurenanalysen, Zirkon-(U-Th)/He-Datierungen und thermischen Modellierung den Zeitraum der Grabenbildung im Kenia Rift zwischen 65-50 Ma und von 15 Ma bis zur Gegenwart definieren. Diese beiden Phasen werden durch schnelle Exhumierung der Riftflanken und Anhebung der Riftschultern begleitet. Zwischen 45 und 15 Ma wurden die Riftschultern und -flanken nur sehr langsam erodiert/exhumiert, und Sedimente aus diesen Gebieten im Rift abgelagert, die zum Teil auf die damaligen Riftschultern sedimentiert wurden. Darüber hinaus ermittelte ich, dass Denudationsraten in spärlich bewachsenen Gebieten heute bis zu 0,13 mm/a erreichen können, während in feuchten und dicht bewachsenen Gebieten ein Maximum von nur 0,08 mm/a erreicht wird, trotz z.T. steilerer Hänge. Die Kombination morphometrischer Untersuchungen und Analysen des kosmogenen Nuklids 10Be zeigt, dass Vegetation und Hangneigung weitgehend die Variabilität von Erosionsraten im heutigen Kenia Rift beeinflussen. Meine Ergebnisse unterstützen mit robusten quantitativen Daten die Hypothese, dass die Vegetationsdecke eine wichtige Rolle bei der Stabilisierung von Hängen spielt. In einer weiterführenden Pilotstudie konnte ich zeigen, wie Paläo-Denudationsraten zum Verständnis bekannter Perioden der Klimaschwankung und den damit verbundenen Änderungen hydrologischer Bedingungen beitragen können. Diese Beobachtung basiert auf der Analyse kosmogener Nuklide (10Be) an früh-holozänen Deltaablagerungen im nördlichen Kenia Rift, die auf eine Vervierfachung der Erosionsraten in der Anfangsphase eines Wechsels von ariden zu humiden Klimabedingungen hindeuten. Diese Untersuchungen dokumentieren somit die Bedeutung von Klimavariabilität im Erosions- und Sedimentationsregime klimatischer Schwellenregionen und verdeutlichen ein Szenario der Veränderung von Oberflächenprozessen, wie es bei zukünftigen Änderungen des Klimas im Zuge des globalen Wandels erwartet werden kann. KW - denudation processes KW - East African Rift KW - landscape evolution KW - thermochronology KW - cosmogenic radionuclides KW - exhumation processes KW - vegetation cover KW - Denudation KW - Exhumationsprozesse KW - kosmogene Nuklide KW - Landschaftsentwicklung KW - ostafrikanisches Riftsystem KW - Vegetationsbedeckung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84534 ER -