TY - THES A1 - Takouna, Ibrahim T1 - Energy-efficient and performance-aware virtual machine management for cloud data centers T1 - Energieeffizientes und performancebewusstes Management virtueller Maschinen für Cloud Datenzentren N2 - Virtualisierte Cloud Datenzentren stellen nach Bedarf Ressourcen zur Verfügu-ng, ermöglichen agile Ressourcenbereitstellung und beherbergen heterogene Applikationen mit verschiedenen Anforderungen an Ressourcen. Solche Datenzentren verbrauchen enorme Mengen an Energie, was die Erhöhung der Betriebskosten, der Wärme innerhalb der Zentren und des Kohlendioxidausstoßes verursacht. Der Anstieg des Energieverbrauches kann durch ein ineffektives Ressourcenmanagement, das die ineffiziente Ressourcenausnutzung verursacht, entstehen. Die vorliegende Dissertation stellt detaillierte Modelle und neue Verfahren für virtualisiertes Ressourcenmanagement in Cloud Datenzentren vor. Die vorgestellten Verfahren ziehen das Service-Level-Agreement (SLA) und die Heterogenität der Auslastung bezüglich des Bedarfs an Speicherzugriffen und Kommunikationsmustern von Web- und HPC- (High Performance Computing) Applikationen in Betracht. Um die präsentierten Techniken zu evaluieren, verwenden wir Simulationen und echte Protokollierung der Auslastungen von Web- und HPC- Applikationen. Außerdem vergleichen wir unser Techniken und Verfahren mit anderen aktuellen Verfahren durch die Anwendung von verschiedenen Performance Metriken. Die Hauptbeiträge dieser Dissertation sind Folgendes: Ein Proaktives auf robuster Optimierung basierendes Ressourcenbereitstellungsverfahren. Dieses Verfahren erhöht die Fähigkeit der Hostes zur Verfüg-ungsstellung von mehr VMs. Gleichzeitig aber wird der unnötige Energieverbrauch minimiert. Zusätzlich mindert diese Technik unerwünschte Ände-rungen im Energiezustand des Servers. Die vorgestellte Technik nutzt einen auf Intervall basierenden Vorhersagealgorithmus zur Implementierung einer robusten Optimierung. Dabei werden unsichere Anforderungen in Betracht gezogen. Ein adaptives und auf Intervall basierendes Verfahren zur Vorhersage des Arbeitsaufkommens mit hohen, in kürzer Zeit auftretenden Schwankungen. Die Intervall basierende Vorhersage ist implementiert in der Standard Abweichung Variante und in der Median absoluter Abweichung Variante. Die Intervall-Änderungen basieren auf einem adaptiven Vertrauensfenster um die Schwankungen des Arbeitsaufkommens zu bewältigen. Eine robuste VM Zusammenlegung für ein effizientes Energie und Performance Management. Dies ermöglicht die gegenseitige Abhängigkeit zwischen der Energie und der Performance zu minimieren. Unser Verfahren reduziert die Anzahl der VM-Migrationen im Vergleich mit den neu vor kurzem vorgestellten Verfahren. Dies trägt auch zur Reduzierung des durch das Netzwerk verursachten Energieverbrauches. Außerdem reduziert dieses Verfahren SLA-Verletzungen und die Anzahl von Änderungen an Energiezus-tänden. Ein generisches Modell für das Netzwerk eines Datenzentrums um die verzö-gerte Kommunikation und ihre Auswirkung auf die VM Performance und auf die Netzwerkenergie zu simulieren. Außerdem wird ein generisches Modell für ein Memory-Bus des Servers vorgestellt. Dieses Modell beinhaltet auch Modelle für die Latenzzeit und den Energieverbrauch für verschiedene Memory Frequenzen. Dies erlaubt eine Simulation der Memory Verzögerung und ihre Auswirkung auf die VM-Performance und auf den Memory Energieverbrauch. Kommunikation bewusste und Energie effiziente Zusammenlegung für parallele Applikationen um die dynamische Entdeckung von Kommunikationsmustern und das Umplanen von VMs zu ermöglichen. Das Umplanen von VMs benutzt eine auf den entdeckten Kommunikationsmustern basierende Migration. Eine neue Technik zur Entdeckung von dynamischen Mustern ist implementiert. Sie basiert auf der Signal Verarbeitung des Netzwerks von VMs, anstatt die Informationen des virtuellen Umstellung der Hosts oder der Initiierung der VMs zu nutzen. Das Ergebnis zeigt, dass unsere Methode die durchschnittliche Anwendung des Netzwerks reduziert und aufgrund der Reduzierung der aktiven Umstellungen Energie gespart. Außerdem bietet sie eine bessere VM Performance im Vergleich zu der CPU-basierten Platzierung. Memory bewusste VM Zusammenlegung für unabhängige VMs. Sie nutzt die Vielfalt des VMs Memory Zuganges um die Anwendung vom Memory-Bus der Hosts zu balancieren. Die vorgestellte Technik, Memory-Bus Load Balancing (MLB), verteilt die VMs reaktiv neu im Bezug auf ihre Anwendung vom Memory-Bus. Sie nutzt die VM Migration um die Performance des gesamtem Systems zu verbessern. Außerdem sind die dynamische Spannung, die Frequenz Skalierung des Memory und die MLB Methode kombiniert um ein besseres Energiesparen zu leisten. N2 - Virtualized cloud data centers provide on-demand resources, enable agile resource provisioning, and host heterogeneous applications with different resource requirements. These data centers consume enormous amounts of energy, increasing operational expenses, inducing high thermal inside data centers, and raising carbon dioxide emissions. The increase in energy consumption can result from ineffective resource management that causes inefficient resource utilization. This dissertation presents detailed models and novel techniques and algorithms for virtual resource management in cloud data centers. The proposed techniques take into account Service Level Agreements (SLAs) and workload heterogeneity in terms of memory access demand and communication patterns of web applications and High Performance Computing (HPC) applications. To evaluate our proposed techniques, we use simulation and real workload traces of web applications and HPC applications and compare our techniques against the other recently proposed techniques using several performance metrics. The major contributions of this dissertation are the following: proactive resource provisioning technique based on robust optimization to increase the hosts' availability for hosting new VMs while minimizing the idle energy consumption. Additionally, this technique mitigates undesirable changes in the power state of the hosts by which the hosts' reliability can be enhanced in avoiding failure during a power state change. The proposed technique exploits the range-based prediction algorithm for implementing robust optimization, taking into consideration the uncertainty of demand. An adaptive range-based prediction for predicting workload with high fluctuations in the short-term. The range prediction is implemented in two ways: standard deviation and median absolute deviation. The range is changed based on an adaptive confidence window to cope with the workload fluctuations. A robust VM consolidation for efficient energy and performance management to achieve equilibrium between energy and performance trade-offs. Our technique reduces the number of VM migrations compared to recently proposed techniques. This also contributes to a reduction in energy consumption by the network infrastructure. Additionally, our technique reduces SLA violations and the number of power state changes. A generic model for the network of a data center to simulate the communication delay and its impact on VM performance, as well as network energy consumption. In addition, a generic model for a memory-bus of a server, including latency and energy consumption models for different memory frequencies. This allows simulating the memory delay and its influence on VM performance, as well as memory energy consumption. Communication-aware and energy-efficient consolidation for parallel applications to enable the dynamic discovery of communication patterns and reschedule VMs using migration based on the determined communication patterns. A novel dynamic pattern discovery technique is implemented, based on signal processing of network utilization of VMs instead of using the information from the hosts' virtual switches or initiation from VMs. The result shows that our proposed approach reduces the network's average utilization, achieves energy savings due to reducing the number of active switches, and provides better VM performance compared to CPU-based placement. Memory-aware VM consolidation for independent VMs, which exploits the diversity of VMs' memory access to balance memory-bus utilization of hosts. The proposed technique, Memory-bus Load Balancing (MLB), reactively redistributes VMs according to their utilization of a memory-bus using VM migration to improve the performance of the overall system. Furthermore, Dynamic Voltage and Frequency Scaling (DVFS) of the memory and the proposed MLB technique are combined to achieve better energy savings. KW - Energieeffizienz KW - Cloud Datenzentren KW - Ressourcenmanagement KW - dynamische Umsortierung KW - energy efficiency KW - cloud datacenter KW - resource management KW - dynamic consolidation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72399 ER - TY - THES A1 - Strauß, Jens T1 - Organic carbon in ice-rich permafrost T1 - Organischer Kohlenstoff in eisreichen Permafrostablagerungen BT - characteristics, quantity, and availability BT - stoffliche Charakteristik, Bilanzierung und Verfügbarkeit N2 - Permafrost, defined as ground that is frozen for at least two consecutive years, is a distinct feature of the terrestrial unglaciated Arctic. It covers approximately one quarter of the land area of the Northern Hemisphere (23,000,000 km²). Arctic landscapes, especially those underlain by permafrost, are threatened by climate warming and may degrade in different ways, including active layer deepening, thermal erosion, and development of rapid thaw features. In Siberian and Alaskan late Pleistocene ice-rich Yedoma permafrost, rapid and deep thaw processes (called thermokarst) can mobilize deep organic carbon (below 3 m depth) by surface subsidence due to loss of ground ice. Increased permafrost thaw could cause a feedback loop of global significance if its stored frozen organic carbon is reintroduced into the active carbon cycle as greenhouse gases, which accelerate warming and inducing more permafrost thaw and carbon release. To assess this concern, the major objective of the thesis was to enhance the understanding of the origin of Yedoma as well as to assess the associated organic carbon pool size and carbon quality (concerning degradability). The key research questions were: - How did Yedoma deposits accumulate? - How much organic carbon is stored in the Yedoma region? - What is the susceptibility of the Yedoma region's carbon for future decomposition? To address these three research questions, an interdisciplinary approach, including detailed field studies and sampling in Siberia and Alaska as well as methods of sedimentology, organic biogeochemistry, remote sensing, statistical analyses, and computational modeling were applied. To provide a panarctic context, this thesis additionally includes results both from a newly compiled northern circumpolar carbon database and from a model assessment of carbon fluxes in a warming Arctic. The Yedoma samples show a homogeneous grain-size composition. All samples were poorly sorted with a multi-modal grain-size distribution, indicating various (re-) transport processes. This contradicts the popular pure loess deposition hypothesis for the origin of Yedoma permafrost. The absence of large-scale grinding processes via glaciers and ice sheets in northeast Siberian lowlands, processes which are necessary to create loess as material source, suggests the polygenetic origin of Yedoma deposits. Based on the largest available data set of the key parameters, including organic carbon content, bulk density, ground ice content, and deposit volume (thickness and coverage) from Siberian and Alaskan study sites, this thesis further shows that deep frozen organic carbon in the Yedoma region consists of two distinct major reservoirs, Yedoma deposits and thermokarst deposits (formed in thaw-lake basins). Yedoma deposits contain ~80 Gt and thermokarst deposits ~130 Gt organic carbon, or a total of ~210 Gt. Depending on the approach used for calculating uncertainty, the range for the total Yedoma region carbon store is ±75 % and ±20 % for conservative single and multiple bootstrapping calculations, respectively. Despite the fact that these findings reduce the Yedoma region carbon pool by nearly a factor of two compared to previous estimates, this frozen organic carbon is still capable of inducing a permafrost carbon feedback to climate warming. The complete northern circumpolar permafrost region contains between 1100 and 1500 Gt organic carbon, of which ~60 % is perennially frozen and decoupled from the short-term carbon cycle. When thawed and reintroduced into the active carbon cycle, the organic matter qualities become relevant. Furthermore, results from investigations into Yedoma and thermokarst organic matter quality studies showed that Yedoma and thermokarst organic matter exhibit no depth-dependent quality trend. This is evidence that after freezing, the ancient organic matter is preserved in a state of constant quality. The applied alkane and fatty-acid-based biomarker proxies including the carbon-preference and the higher-land-plant-fatty-acid indices show a broad range of organic matter quality and thus no significantly different qualities of the organic matter stored in thermokarst deposits compared to Yedoma deposits. This lack of quality differences shows that the organic matter biodegradability depends on different decomposition trajectories and the previous decomposition/incorporation history. Finally, the fate of the organic matter has been assessed by implementing deep carbon pools and thermokarst processes in a permafrost carbon model. Under various warming scenarios for the northern circumpolar permafrost region, model results show a carbon release from permafrost regions of up to ~140 Gt and ~310 Gt by the years 2100 and 2300, respectively. The additional warming caused by the carbon release from newly-thawed permafrost contributes 0.03 to 0.14°C by the year 2100. The model simulations predict that a further increase by the 23rd century will add 0.4°C to global mean surface air temperatures. In conclusion, Yedoma deposit formation during the late Pleistocene was dominated by water-related (alluvial/fluvial/lacustrine) as well as aeolian processes under periglacial conditions. The circumarctic permafrost region, including the Yedoma region, contains a substantial amount of currently frozen organic carbon. The carbon of the Yedoma region is well-preserved and therefore available for decomposition after thaw. A missing quality-depth trend shows that permafrost preserves the quality of ancient organic matter. When the organic matter is mobilized by deep degradation processes, the northern permafrost region may add up to 0.4°C to the global warming by the year 2300. N2 - Permafrost, definiert als mehr als zwei aufeinander folgende Jahre gefrorenes Bodenmaterial, ist eines der prägenden Merkmale der unvergletscherten arktischen Landgebiete. Verursacht durch extrem kalte Wintertemperaturen und geringe Schneebedeckung nimmt das Permafrost-Verbreitungsgebiet mit ~23.000.000 km² rund ein Viertel der Landfläche der Nordhemisphäre ein. Von Permafrost unterlagerte arktische Landschaften sind besonders anfällig hinsichtlich einer Erwärmung des Klimas. Verglichen mit der globalen Mitteltemperatur prognostizieren Klimamodelle für die Arktis einen doppelt so starken Anstieg der Temperatur. In einer sich erwärmenden Arktis bewirken Störungen des thermisch-hydrologischen Gleichgewichts eine Degradation von Permafrost und Veränderungen des Oberflächenreliefs. Diese Störungen können zum Beispiel zu einer Vertiefung der saisonalen Auftauschicht, zu thermisch bedingter Erosion sowie zu schneller Oberflächenabsenkung und Thermokarst führen. Im Verbreitungsgebiet der spätpleistozänen eisreichen Permafrost-Ablagerungen Sibiriens und Alaskas, bezeichnet als Yedoma, können Thermokarstprozesse auch mehr als 3 m tiefe organischen Kohlenstoffspeicher verfügbar machen, wenn durch schmelzendes Grundeis und Schmelzwasserdrainage die Oberfläche abgesenkt wird. So kann das Tauen von Permafrost eine globale Bedeutung entwickeln, indem vorher eingefrorener Kohlenstoff wieder dem aktiven Kohlenstoffkreislauf zugeführt wird. Dies kann durch Treibhausgasfreisetzung aus Permafrost zu einer sich selbst verstärkenden weiteren Erwärmung und somit zu fortschreitendem Tauen mit weiterer Kohlenstofffreisetzung führen. Diesen Prozess nennt man Permafrost-Kohlenstoff Rückkopplung. Um das Verständnis der Permafrostkohlenstoffdynamik grundlegend zu verbessern, wurde in dieser Doktorarbeit die Entstehung der Yedoma-Ablagerungen eingeschlossen des darin - Wie wurden die Yedoma-Sedimente abgelagert? - Wie viel Kohlenstoff ist in der Yedoma Region gespeichert? - Wie ist die Anfälligkeit dieses Kohlenstoffs für eine Degradation in der Zukunft? Um die oben genannten drei Forschungsfragen zu beantworten, wurde ein interdisziplinärer Forschungsansatz gewählt. In Sibirien und Alaska wurden detaillierte Felduntersuchungen durchgeführt und Methoden der Sedimentologie, der organischen Biogeochemie, der Fernerkundung sowie der statistischen Analyse und computergestützten Modellierung angewendet. Um diese Ergebnisse in den panarktische Kontext zu setzen, enthält diese Doktorarbeit ebenfalls Ergebnisse einer Studie, welche auf Grundlage einer neu zusammengestellten Datenbank den gesamten Kohlenstoff des arktischen Permafrosts abschätzt. Eine Modellierungsstudie ergänzt die Arbeit bezüglich einer Abschätzung der Kohlenstoffflüsse der Permafrostregion und deren Einfluss auf die globale Erwärmung. Die Ergebnisse zur Yedoma-Entstehung zeigen, dass die Korngrößenverteilungen dieser Ablagerungen, tiefenabhängig betrachtet, sehr homogen sind. Alle gemessenen Korngrößenverteilungen sind schlecht sortiert. Dies deutet auf eine Vielzahl von Transportprozessen hin und widerspricht der populären Hypothese einer reinen Löß-Ablagerung. Interpretiert im Kontext mit der Abwesenheit von Gletschern sowie Eisschilden, als Ausgangsgebiete von Löß-Ablagerungen, in den sibirischen Tiefländern des Spätpleistozäns, zeigt diese Arbeit, dass Yedoma-Ablagerungen polygenetischen Ursprungs sind. Basierend auf dem größten verfügbaren Datensatz der Schlüsselparameter Kohlenstoffgehalt, Lagerungsdichte, Grundeis und Volumen der Ablagerungen von über 20 Untersuchungsgebieten in Sibirien und Alaska zeigt diese Arbeit mit Yedoma- und Thermokarstablagerungen zwei wesentliche Kohlenstoffspeicher der Yedoma Region auf. Yedoma-Ablagerungen enthalten ~80 Gt und Thermokarstablagerungen ~130 Gt organischen Kohlenstoffs, was einer Gesamtmenge von ~210 Gt organischen Kohlenstoffs entspricht. Abhängig vom gewählten Ansatz der Fehlerberechnung liegt der Unsicherheitsbereich dieser Quantitätsabschätzung bei ±75 % (einfaches Bootstrapping) oder ±20 % (wiederholtes Bootstrapping). Obwohl diese Zahlen die bisherigen Berechnungen des Yedoma-Region-Kohlenstoffspeichers vorhergehender Studien halbieren, stellen 210 Gt organischen Kohlenstoffs noch immer einen großen Kohlenstoffspeicher dar, der eine positive Rückkopplung zur globalen Klimaerwärmung bewirken könnte. Die gesamte Permafrostregion beinhaltet zwischen 1100 und 1500 Gt Kohlenstoff, wovon ~60 % dauerhaft gefroren und somit dem derzeitigen Kohlenstoffkreislauf entzogen sind. Wenn dieser Kohlenstoff freigesetzt wird, ist ein weiterer Faktor, die Kohlenstoffqualität, relevant. Die Untersuchungen zur Kohlenstoffqualität zeigen keinen tiefenabhängigen Trend in Yedoma- und Thermokarstablagerungen. Dies belegt, dass nach dem Einfrieren die fossile organische Substanz konserviert wurde. Die genutzten Biomarkerdaten, z.B. der 'carbon preference' Index und der 'higher land plant fatty acid' Index zeigen sowohl für Yedoma- als auch für Thermokarstablagerungen keine signifikanten Unterschiede der Kohlenstoffqualität. Das bedeutet, dass der Kohlenstoffabbau nach dem Auftauen von unterschiedlichen Faktoren abhängig ist. Dazu gehören verschiedene Abbauwege oder schon vor dem Einfrieren geschehener Abbau. Um die Bedeutung des aufgetauten Kohlenstoffs abzuschätzen, wurden Thermokarstprozesse in ein Permafrost-Kohlenstoff-Modell einbezogen. Unter Berücksichtigung verschiedener Erwärmungsszenarien könnte die zirkumarktische Permafrostregion bis zum Jahr 2100 ~140 Gt Kohlenstoff und bis 2300 ~310 Gt in die Atmosphäre freisetzen. Dies entspricht einer Erwärmung der mittleren globalen Oberflächentemperatur von ~0,03 bis ~0,14°C bis 2100 und bis zu ~0,4°C bis 2300. Zusammenfassend stellt diese Dissertation heraus, dass die Yedoma-Ablagerungen während des Spätpleistozäns durch eine Kombination verschiedener aquatischer (alluviale, fluviale, lakustrine) sowie äolische Prozesse entstanden sind. Die zirkumarktische Region, inklusive der Yedoma Region, beinhaltet eine erhebliche Menge an derzeit eingefrorenem organischen Kohlenstoffs. Dieser Kohlenstoff ist gut erhalten und damit nach dem Auftauen für den mikrobiellen Abbau verfügbar. Eine fehlende Tiefenabhängigkeit der Kohlenstoffqualität zeigt, dass Permafrost die Qualität zum Einfrierzeitpunkt bewahrt. Wenn auch der tiefliegende organische Kohlenstoff durch Thermokarstprozesse verfügbar gemacht wird, kann die Permafrostregion bis zum Jahr 2300 bis zu 0,4°C zur mittleren globalen Oberflächentemperatur beitragen. KW - permafrost KW - Arctic KW - climate change KW - vulnerability KW - Dauerfrostboden KW - Arktis KW - Klimawandel KW - Vulnerabilität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75236 ER - TY - THES A1 - Steyrleuthner, Robert T1 - Korrelation von Struktur, optischen Eigenschaften und Ladungstransport in einem konjugierten Naphthalindiimid-Bithiophen Copolymer mit herausragender Elektronenmobilität T1 - Correlation of structure, optical properties and charge transport in a conjugated naphtalendiimide-bithiophene copolymer with outstanding electron mobility N2 - Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind. N2 - Organic semiconductors are in the focus of recent research and technological development (eg. for organic light-emitting diodes and solar cells) due to their specific and outstanding material properties. The strong conformational freedom of conjugated polymer chains usually leads to a large number of possible geometric arrangements while weak intermolecular interactions additionally lead to poor structural order in the solid state. At the same time the morphology of those systems has direct influence on the electronic structure of the organic semiconductor which is accompanied by a significant reduction of the charge carrier mobility in contrast to their inorganic counterparts. In that way the transport of charges within the semiconductor represents one of the main limiting factors regarding the performance and efficiency of functional organic devices. In 2009 Facchetti and coworkers presented a novel conjugated donor/acceptor copolymer based on naphthalene diimide and bithiophene [P(NDI2OD‑T2)] which was characterized by an outstanding charge carrier mobility. In this work the mobility of electrons and holes in the bulk of P(NDI2OD‑T2) is determined by single carrier devices and the time-of-flight technique. The results imply a low energetic disorder in these polymer layers. While the material was initially expected to be mainly amorphous, a detailed study of the photophysical properties of P(NDI2OD‑T2) shows that precursors of supramolecular assemblies (aggregates) are already formed in polymer solution. Quantum-chemical calculations support the occurring optical changes. NMR spectroscopy was applied to independently prove the formation of chain aggregates in commonly used organic solvents. The investigation of P(NDI2OD‑T2) solutions by analytical ultracentrifugation implies that aggregation mainly proceeds within single polymer chains by reduction of the hydrodynamic radius. To understand the influence of the chemical structure, pre-aggregation and crystal packing of conventional regioregular P(NDI2OD-T2) on the charge transport, the corresponding regioirregular polymer RI-P(NDI2OD-T2) was synthesized. By combining optical, X-ray, and transmission electron microscopy data, a quantitatively characterization of the aggregation, crystallization, and backbone orientation of all of the polymer films was possible, which was then correlated to the electron mobilities in electron-only diodes. The anisotropy of the charge transport along the different crystallographic directions is demonstrated and how the mobility depends on π-stacking but is insensitive to the degree or coherence of lamellar stacking. The comparison between the regioregular and regioirregular polymers also shows how the use of large planar functional groups leads to improved charge transport, with mobilities that are less affected by chemical and structural disorder with respect to classic semicrystalline polymers such as poly(3-hexylthiophene). KW - organische Halbleiter KW - Ladungstransport KW - Solarzellen KW - Polymere KW - Photophysik KW - organic semiconductor KW - charge transport KW - solar cells KW - polymers KW - photo physics Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71413 ER - TY - THES A1 - Steinhaus, Sebastian Peter T1 - Constructing quantum spacetime T1 - Konstruktion der Quantenraumzeit BT - relation to classical gravity BT - Relation zur klassischen Gravitation N2 - Despite remarkable progress made in the past century, which has revolutionized our understanding of the universe, there are numerous open questions left in theoretical physics. Particularly important is the fact that the theories describing the fundamental interactions of nature are incompatible. Einstein's theory of general relative describes gravity as a dynamical spacetime, which is curved by matter and whose curvature determines the motion of matter. On the other hand we have quantum field theory, in form of the standard model of particle physics, where particles interact via the remaining interactions - electromagnetic, weak and strong interaction - on a flat, static spacetime without gravity. A theory of quantum gravity is hoped to cure this incompatibility by heuristically replacing classical spacetime by quantum spacetime'. Several approaches exist attempting to define such a theory with differing underlying premises and ideas, where it is not clear which is to be preferred. Yet a minimal requirement is the compatibility with the classical theory, they attempt to generalize. Interestingly many of these models rely on discrete structures in their definition or postulate discreteness of spacetime to be fundamental. Besides the direct advantages discretisations provide, e.g. permitting numerical simulations, they come with serious caveats requiring thorough investigation: In general discretisations break fundamental diffeomorphism symmetry of gravity and are generically not unique. Both complicates establishing the connection to the classical continuum theory. The main focus of this thesis lies in the investigation of this relation for spin foam models. This is done on different levels of the discretisation / triangulation, ranging from few simplices up to the continuum limit. In the regime of very few simplices we confirm and deepen the connection of spin foam models to discrete gravity. Moreover, we discuss dynamical, e.g. diffeomorphism invariance in the discrete, to fix the ambiguities of the models. In order to satisfy these conditions, the discrete models have to be improved in a renormalisation procedure, which also allows us to study their continuum dynamics. Applied to simplified spin foam models, we uncover a rich, non--trivial fixed point structure, which we summarize in a phase diagram. Inspired by these methods, we propose a method to consistently construct the continuum theory, which comes with a unique vacuum state. N2 - Trotz bemerkenswerter Fortschritte im vergangenen Jahrhundert, die unser Verständnis des Universums revolutioniert haben, gibt es noch zahlreiche ungeklärte Fragen in der theoretischen Physik. Besondere Bedeutung kommt der Tatsache zu, dass die Theorien, welche die fundamentalen Wechselwirkungen der Natur beschreiben, inkompatibel sind. Nach Einsteins allgemeiner Relativitätstheorie wird die Gravitation durch eine dynamische Raumzeit dargestellt, die von Materie gekrümmt wird und ihrerseits durch die Krümmung die Bewegung der Materie bestimmt. Dem gegenüber steht die Quantenfeldtheorie, die die verbliebenen Wechselwirkungen - elektromagnetische, schwache und starke Wechselwirkung - im Standardmodell der Teilchenphysik beschreibt, in dem Teilchen auf einer statischen Raumzeit -- ohne Gravitation -- miteinander interagieren. Die Hoffnung ist, dass eine Theorie der Quantengravitation diese Inkompatibilität beheben kann, indem, heuristisch, die klassische Raumzeit durch eine 'Quantenraumzeit' ersetzt wird. Es gibt zahlreiche Ansätze eine solche Theorie zu definieren, die auf unterschiedlichen Prämissen und Ideen beruhen, wobei a priori nicht klar ist, welche zu bevorzugen sind. Eine Minimalanforderung an diese Theorien ist Kompatibilität mit der klassischen Theorie, die sie verallgemeinern sollen. Interessanterweise basieren zahlreiche Modelle in ihrer Definition auf Diskretisierungen oder postulieren eine fundamentale Diskretheit der Raumzeit. Neben den unmittelbaren Vorteilen, die Diskretisierungen bieten, z.B. das Ermöglichen numerischer Simulationen, gibt es auch gravierende Nachteile, die einer ausführlichen Untersuchung bedürfen: Im Allgemeinen brechen Diskretisierungen die fundamentale Diffeomorphismensymmetrie der Gravitation und sind in der Regel nicht eindeutig definiert. Beides erschwert die Wiederherstellung der Verbindung zur klassischen, kontinuierlichen Theorie. Das Hauptaugenmerk dieser Doktorarbeit liegt darin diese Verbindung insbesondere für Spin-Schaum-Modelle (spin foam models) zu untersuchen. Dies geschieht auf sehr verschiedenen Ebenen der Diskretisierung / Triangulierung, angefangen bei wenigen Simplizes bis hin zum Kontinuumslimes. Im Regime weniger Simplizes wird die bekannte Verbindung von Spin--Schaum--Modellen zu diskreter Gravitation bestätigt und vertieft. Außerdem diskutieren wir dynamische Prinzipien, z.B. Diffeomorphismeninvarianz im Diskreten, um die Ambiguitäten der Modelle zu fixieren. Um diese Bedingungen zu erfüllen, müssen die diskreten Modelle durch Renormierungsverfahren verbessert werden, wodurch wir auch ihre Kontinuumsdynamik untersuchen können. Angewandt auf vereinfachte Spin-Schaum-Modelle finden wir eine reichhaltige, nicht-triviale Fixpunkt-Struktur, die wir in einem Phasendiagramm zusammenfassen. Inspiriert von diesen Methoden schlagen wir zu guter Letzt eine konsistente Konstruktionsmethode für die Kontinuumstheorie vor, die einen eindeutigen Vakuumszustand definiert. KW - Quantengravitation KW - Spin-Schaum-Modelle KW - Regge Kalkül KW - Renormierung KW - Verfeinerungslimes KW - quantum gravity KW - spin foams KW - regge calculus KW - renormalization and refinement limit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72558 ER - TY - THES A1 - Steinert, Bastian T1 - Built-in recovery support for explorative programming T1 - Eingebaute Unterstützung für Wiederherstellungsbedürfnisse für unstrukturierte ergebnisoffene Programmieraufgaben BT - preserving immediate access to static and dynamic information of intermediate development states BT - Erhaltung des unmittelbaren Zugriffs auf statische und dynamische Informationen von Entwicklungszwischenständen N2 - This work introduces concepts and corresponding tool support to enable a complementary approach in dealing with recovery. Programmers need to recover a development state, or a part thereof, when previously made changes reveal undesired implications. However, when the need arises suddenly and unexpectedly, recovery often involves expensive and tedious work. To avoid tedious work, literature recommends keeping away from unexpected recovery demands by following a structured and disciplined approach, which consists of the application of various best practices including working only on one thing at a time, performing small steps, as well as making proper use of versioning and testing tools. However, the attempt to avoid unexpected recovery is both time-consuming and error-prone. On the one hand, it requires disproportionate effort to minimize the risk of unexpected situations. On the other hand, applying recommended practices selectively, which saves time, can hardly avoid recovery. In addition, the constant need for foresight and self-control has unfavorable implications. It is exhaustive and impedes creative problem solving. This work proposes to make recovery fast and easy and introduces corresponding support called CoExist. Such dedicated support turns situations of unanticipated recovery from tedious experiences into pleasant ones. It makes recovery fast and easy to accomplish, even if explicit commits are unavailable or tests have been ignored for some time. When mistakes and unexpected insights are no longer associated with tedious corrective actions, programmers are encouraged to change source code as a means to reason about it, as opposed to making changes only after structuring and evaluating them mentally. This work further reports on an implementation of the proposed tool support in the Squeak/Smalltalk development environment. The development of the tools has been accompanied by regular performance and usability tests. In addition, this work investigates whether the proposed tools affect programmers’ performance. In a controlled lab study, 22 participants improved the design of two different applications. Using a repeated measurement setup, the study examined the effect of providing CoExist on programming performance. The result of analyzing 88 hours of programming suggests that built-in recovery support as provided with CoExist positively has a positive effect on programming performance in explorative programming tasks. N2 - Diese Arbeit präsentiert Konzepte und die zugehörige Werkzeugunterstützung um einen komplementären Umgang mit Wiederherstellungsbedürfnissen zu ermöglichen. Programmierer haben Bedarf zur Wiederherstellung eines früheren Entwicklungszustandes oder Teils davon, wenn ihre Änderungen ungewünschte Implikationen aufzeigen. Wenn dieser Bedarf plötzlich und unerwartet auftritt, dann ist die notwendige Wiederherstellungsarbeit häufig mühsam und aufwendig. Zur Vermeidung mühsamer Arbeit empfiehlt die Literatur die Vermeidung von unerwarteten Wiederherstellungsbedürfnissen durch einen strukturierten und disziplinierten Programmieransatz, welcher die Verwendung verschiedener bewährter Praktiken vorsieht. Diese Praktiken sind zum Beispiel: nur an einer Sache gleichzeitig zu arbeiten, immer nur kleine Schritte auszuführen, aber auch der sachgemäße Einsatz von Versionskontroll- und Testwerkzeugen. Jedoch ist der Versuch des Abwendens unerwarteter Wiederherstellungsbedürfnisse sowohl zeitintensiv als auch fehleranfällig. Einerseits erfordert es unverhältnismäßig hohen Aufwand, das Risiko des Eintretens unerwarteter Situationen auf ein Minimum zu reduzieren. Andererseits ist eine zeitsparende selektive Ausführung der empfohlenen Praktiken kaum hinreichend, um Wiederherstellungssituationen zu vermeiden. Zudem bringt die ständige Notwendigkeit an Voraussicht und Selbstkontrolle Nachteile mit sich. Dies ist ermüdend und erschwert das kreative Problemlösen. Diese Arbeit schlägt vor, Wiederherstellungsaufgaben zu vereinfachen und beschleunigen, und stellt entsprechende Werkzeugunterstützung namens CoExist vor. Solche zielgerichtete Werkzeugunterstützung macht aus unvorhergesehenen mühsamen Wiederherstellungssituationen eine konstruktive Erfahrung. Damit ist Wiederherstellung auch dann leicht und schnell durchzuführen, wenn explizit gespeicherte Zwischenstände fehlen oder die Tests für einige Zeit ignoriert wurden. Wenn Fehler und unerwartete Ein- sichten nicht länger mit mühsamen Schadensersatz verbunden sind, fühlen sich Programmierer eher dazu ermutig, Quelltext zu ändern, um dabei darüber zu reflektieren, und nehmen nicht erst dann Änderungen vor, wenn sie diese gedanklich strukturiert und evaluiert haben. Diese Arbeit berichtet weiterhin von einer Implementierung der vorgeschlagenen Werkzeugunterstützung in der Squeak/Smalltalk Entwicklungsumgebung. Regelmäßige Tests von Laufzeitverhalten und Benutzbarkeit begleiteten die Entwicklung. Zudem prüft die Arbeit, ob sich die Verwendung der vorgeschlagenen Werkzeuge auf die Leistung der Programmierer auswirkt. In einem kontrollierten Experiment, verbesserten 22 Teilnehmer den Aufbau von zwei verschiedenen Anwendungen. Unter der Verwendung einer Versuchsanordnung mit wiederholter Messung, ermittelte die Studie die Auswirkung von CoExist auf die Programmierleistung. Das Ergebnis der Analyse von 88 Programmierstunden deutet darauf hin, dass sich eingebaute Werkzeugunterstützung für Wiederherstellung, wie sie mit CoExist bereitgestellt wird, positiv bei der Bearbeitung von unstrukturierten ergebnisoffenen Programmieraufgaben auswirkt. KW - Softwaretechnik KW - Entwicklungswerkzeuge KW - Versionierung KW - Testen KW - software engineering KW - development tools KW - versioning KW - testing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71305 ER - TY - THES A1 - Sorce, Jenny T1 - From Spitzer mid-infrared observations and measurements of peculiar velocities to constrained simulations of the local universe T1 - Von Spitzer-Beobachtungen im mittleren Infrarotbereich und Messungen der Pekuliargeschwindigkeiten zu Constrained Simulationen des Lokalen Universums N2 - Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmic flows and CLUES. Cosmic flows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 Mpc/h have been released. We report improvements and applications of the CLUES' method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel'dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors' positions in the initial field. The size of the second catalog (8000 galaxies within 150 Mpc/h) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory. N2 - Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (Constrained Simulations'') stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble-Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows-Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 Mpc/h. In dieser Arbeit wird die CLUES-Methode auf diese zwei Kataloge angewendet und Verbesserungen werden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 Mpc/h) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze. KW - Beobachtungen KW - Entfernungen KW - Pekuliargeschwindigkeiten KW - Simulationen KW - observations KW - distances KW - peculiar velocities KW - simulations Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72486 ER - TY - THES A1 - Senyuk, Ulyana T1 - Zum Status relativähnlicher Sätze im Frühneuhochdeutschen T1 - Relative-like clauses in Early New High German BT - ein Beitrag zum Wesen der Subordination im älteren Deutsch BT - a contribution to the nature of subordination in old German N2 - Diese Arbeit befasst sich mit den sogenannten relativähnlichen Sätzen im Frühneuhochdeutschen und leistet somit einen Beitrag zur Subordinationsforschung des älteren Deutsch. Relativähnliche Sätze sind formal durch ein satzinitiales anaphorisches d-Element und die Endstellung des finiten Verbs gekennzeichnet. Semantisch gesehen beziehen sie sich auf den vorangehenden Satz als Ganzes, indem sie ihn in bestimmter Weise weiterführen oder kommentieren. In der bisherigen Forschung werden diese Sätze satztypologisch als Hauptsätze mit Verbendstellung analysiert (vgl. dazu Maurer 1926, Behaghel 1932 und Lötscher 2000). Nach der ausführlichen Diskussion der formalen Abhängigkeitsmarker im älteren Deutsch sowie anhand einer umfangreichen korpusbasierten Untersuchung wird in dieser Arbeit gezeigt, dass relativähnliche Sätze im Frühneuhochdeutschen auch als abhängige Sätze - analog zu den weiterführenden Relativsätzen im Gegenwartsdeutschen - analysiert werden können. Die weiterführenden Relativsätze im Gegenwartsdeutschen enthalten satzinitial auch ein anaphorisches Element, das sich auf das Gesagte in dem vorangehenden Satz bezieht. Verbendstellung weisen sie ebenfalls auf (mehr zur Grammatik der weiterführenden Relativsätze vgl. insb. Brandt 1990 und Holler 2005). Über die Untersuchung relativähnlicher Sätze hinaus befasst sich diese Arbeit ausführlich mit formalen Abhängigkeitsmarkern des älteren Deutsch, wie Verbendstellung, Einleiter und afinite Konstruktion. N2 - This study deals with so-called relative-like clauses from Early New High German and makes a contribution to the research of subordination in older German. Formally relative-like clauses contain an anaphoric d-word in the initial clause position and exhibit the final position of the finite verb. Semantically they relate to the whole situation of the host clause as a continuation or as a comment. The earlier research analyses these clauses as main clauses with verb-end order (see Maurer 1926, Behaghel 1932 and Lötscher 2000). This study shows after an extensive discussion of the formal dependency markers in older German and on the basis of a large corpus-based study, that relative-like clauses in Early New High German can be analysed as dependent clauses, analogous to continuative relative clauses in Present-Day German. The continuative relative clauses contain also an anaphoric element in the initial clause position, which relates to the whole situation of the host clause. And they also exhibit the verb-end order (for more about the grammar of continuative relative clauses, see Brandt 1900 and Holler 2005). Beyond the study of relative-like clauses in Early New High German this thesis discusses in detail the formal dependency markers of old German like verb-end order, subordinated conjunctions and the afinite construction. KW - Frühneuhochdeutsch KW - historische Syntax KW - Satzgefüge KW - relativähnliche Sätze KW - Early New High German KW - historical syntax KW - clause combining KW - relative-like clauses Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91673 ER - TY - THES A1 - Sen, Ali Tolga T1 - Inversion of seismic source parameters for weak mining-induced and natural earthquakes T1 - Inversion von seismischen Quellparametern für schwache Bergbau-induzierte und natürliche Erdbeben N2 - The purpose of this thesis is to develop an automated inversion scheme to derive point and finite source parameters for weak earthquakes, here intended with the unusual meaning of earthquakes with magnitudes at the limit or below the bottom magnitude threshold of standard source inversion routines. The adopted inversion approaches entirely rely on existing inversion software, the methodological work mostly targeting the development and tuning of optimized inversion flows. The resulting inversion scheme is tested for very different datasets, and thus allows the discussion on the source inversion problem at different scales. In the first application, dealing with mining induced seismicity, the source parameters determination is addressed at a local scale, with source-sensor distance of less than 3 km. In this context, weak seismicity corresponds to event below magnitude MW 2.0, which are rarely target of automated source inversion routines. The second application considers a regional dataset, namely the aftershock sequence of the 2010 Maule earthquake (Chile), using broadband stations at regional distances, below 300 km. In this case, the magnitude range of the target aftershocks range down to MW 4.0. This dataset is here considered as a weak seismicity case, since the analysis of such moderate seismicity is generally investigated only by moment tensor inversion routines, with no attempt to resolve source duration or finite source parameters. In this work, automated multi-step inversion schemes are applied to both datasets with the aim of resolving point source parameters, both using double couple (DC) and full moment tensor (MT) models, source duration and finite source parameters. A major result of the analysis of weaker events is the increased size of resulting moment tensor catalogues, which interpretation may become not trivial. For this reason, a novel focal mechanism clustering approach is used to automatically classify focal mechanisms, allowing the investigation of the most relevant and repetitive rupture features. The inversion of the mining induced seismicity dataset reveals the repetitive occurrence of similar rupture processes, where the source geometry is controlled by the shape of the mined panel. Moreover, moment tensor solutions indicate a significant contribution of tensile processes. Also the second application highlights some characteristic geometrical features of the fault planes, which show a general consistency with the orientation of the slab. The additional inversion for source duration allowed to verify the empirical correlation for moment normalized earthquakes in subduction zones among a decreasing rupture duration with increasing source depth, which was so far only observed for larger events. N2 - Ziel dieser Dissertation ist es ein automatisches Inversionsschema zur Ableitung von Parametern für Punkt- und finite Quellen von "schwachen" Erdbeben im Sinne von aussergewöhnlich kleinen Erdbeben an oder unterhalb der Magnitudenschwelle für Standard-Inversionsroutinen zu entwickeln. Der verwendete Inversionsansatz baut auf bestehender Inversionssoftware auf, die methodische Arbeit zielt hauptsächlich auf die Entwicklung und das Tuning des optimierten Inversionsablaufs. Das resultierende Inversionsverfahren ist für verschiedene Datensätze getestet und erlaubt somit eine Diskussion über das Herdinversionsproblem auf unterschiedlichen Skalierungen. In der ersten Anwendung, die sich mit induzierter Seismizität in Minen beschäftigt, werden die Herdparameter im lokalen Bereich mit einer Herd-Empfänger Entfernung von weniger als 3 km bestimmt. In diesem Zusammenhang bezieht sich die "schwache" Seismizität auf Ereignisse mit Magnituden unter Mw 2.0, welche sehr selten das Ziel von automatisierten Herdinversionsroutinen sind. Die zweite Anwendung berücksichtigt den regionalen Datensatz der Nachbebesequenz des Maule (Chile) Erdbebens von 2010, aufgezeichnet durch Breitband-Stationen in einer maximalen Entfernung von 300 km. In diesem Fall umfasst der Magnitudenbereich Ereignisse mit Magnituden kleiner als Mw 4.0. Auch dieser Datensatz wird hier als "schwache" Seismizität interpretiert, da die Analyse solch moderater Seismizität normalerweise nur durch Routinen für Momententensorinversion erfolgt, welche keinerlei Auflösung für die Herddauer oder finite Herdparameter beinhaltet. In dieser Arbeit wird ein automatisiertes, mehrstufiges Inversionsverfahren auf beide Datensätze angewendet mit dem Ziel sowohl Punktquellen-Herdparameter für double-couple (DC) und volle Momententensor (MT) Modelle als auch für Herddauer und finite Herdparameter zu bestimmen. Ein Hauptergebnis dieser Analyse von schwachen Ereignissen ist die Vergrößerung von Momententensor-Katalogen, deren Interpretation wichtig werden könnte. Aus diesem Grund wurde ein neuartiger Cluster-Ansatz für Herdmechanismen angewendet um diese automatisch zu klassifizieren, der somit die Untersuchung der wichtigsten und sich wiederholenden Bruchprozessen erlaubt. Die Inversion des Datensatzes von induzierter Seismizität in Minen enthüllt das sich wiederholende Auftreten von ähnlichen Bruchprozessen, wobei die Herdgeometrie von der Form der Minentäfelung kontrolliert wird. Darüber hinaus deuten die Momententensorlösungen einen signifikanten Beitrag von tensilen Prozessen an. Auch die zweite Anwendung zeigt einige charackteristische, geometrische Besonderheiten der Bruchflächen auf, welche prinzipiell konsistent zur Orientierung der subduzierten Platte sind. Die zusätzliche Inversion nach der Herdzeit erlaubt die Verifizierung von empirischen Korrelationen von momentennormalisierten Erdbeben in Subduktionszonen zwischen einer abnehmenden Bruchdauer mit zunehmender Herdtiefe, welche bisher nur für größere Ereignisse beobachtet wurde. KW - Seismologie KW - induzierten Seismizität KW - Quellenumkehr KW - Momententensor KW - Aufenthaltsdauer KW - seismology KW - induced seismicity KW - source inversion KW - moment tensor KW - source duration Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71914 ER - TY - THES A1 - Schwarz, Franziska T1 - Einfluss von Kalorienrestriktion auf den Metabolismus T1 - Effect of Caloric Restriction on Metabolism N2 - Die Häufung von Diabetes, Herz-Kreislauf-Erkrankungen und einigen Krebsarten, deren Entstehung auf Übergewicht und Bewegungsmangel zurückzuführen sind, ist ein aktuelles Problem unserer Gesellschaft. Insbesondere mit fortschreitendem Alter nehmen die damit einhergehenden Komplikationen zu. Umso bedeutender ist das Verständnis der pathologischen Mechanismen in Folge von Adipositas, Bewegungsmangel, des Alterungsprozesses und den Einfluss-nehmenden Faktoren. Ziel dieser Arbeit war die Entstehung metabolischer Erkrankungen beim Menschen zu untersuchen. Die Auswertung von Verlaufsdaten anthropometrischer und metabolischer Parameter der 584 Teilnehmern der prospektiven ‚Metabolisches Syndrom Berlin Potsdam Follow-up Studie‘ wies für die gesamte Kohorte einen Anstieg an Übergewicht, ebenso eine Verschlechterung des Blutdrucks und des Glukosestoffwechsels auf. Wir untersuchten, ob das Hormon FGF21 Einfluss an dem Auftreten eines Diabetes mellitus Typ 2 (T2DM) oder des Metabolischen Syndroms (MetS) hat. Wir konnten zeigen, dass Personen, die später ein MetS entwickeln, bereits zu Studienbeginn einen erhöhten FGF21-Spiegel, einen höheren BMI, WHR, Hb1Ac und diastolischen Blutdruck aufwiesen. Neben FGF21 wurde auch Vaspin in diesem Zusammenhang untersucht. Es zeigte sich, dass Personen, die später einen T2DM entwickeln, neben einer Erhöhung klinischer Parameter tendenziell erhöhte Spiegel des Hormons aufwiesen. Mit FGF21 und Vaspin wurden hier zwei neue Faktoren für die Vorhersage des Metabolischen Syndroms bzw. Diabetes mellitus Typ 2 identifiziert. Der langfristige Effekt einer Gewichtsreduktion wurde in einer Subkohorte von 60 Personen untersucht. Der überwiegende Teil der Probanden mit Gewichtsabnahme-Intervention nahm in der ersten sechsmonatigen Phase erfolgreich ab. Jedoch zeigte sich ein deutlicher Trend zur Wiederzunahme des verlorenen Gewichts über den Beobachtungszeitraum von fünf Jahren. Von besonderem Interesse war die Abschätzung des kardiovaskulären Risikos über den Framingham Score. Es wurde deutlich, dass für Personen mit konstanter Gewichtsabnahme ein deutlich geringeres kardiovaskuläres Risiko bestand. Hingegen zeigten Personen mit konstanter Wiederzunahme oder starken Gewichtsschwankungen ein hohes kardiovaskuläres Risiko. Unsere Daten legten nahe, dass eine erfolgreiche dauerhafte Gewichtsreduktion statistisch mit einem erniedrigten kardiovaskulären Risiko assoziiert ist, während Probanden mit starken Gewichtsschwankungen oder einer Gewichtszunahme ein gesteigertes Risiko haben könnten. Um die Interaktion der molekularen Vorgänge hinsichtlich der Gewichtsreduktion und Lebensspanne untersuchen zu können, nutzen wir den Modellorganismus C.elegans. Eine kontinuierliche Restriktion wirkte sich verlängernd, eine Überversorgung verkürzend auf die Lebensspanne des Rundwurms aus. Der Einfluss eines zeitlich eingeschränkten, intermittierenden Nahrungsregimes, analog zum Weight-Cycling im Menschen, auf die Lebensspanne war von großem Interesse. Dieser regelmäßige Wechsel zwischen ad libitum Fütterung und Restriktion hatte in Abhängigkeit von der Häufigkeit der Restriktion einen unterschiedlich starken lebensverlängernden Effekt. Phänomene, wie Gewichtswiederzunahmen, sind in C.elegans nicht zu beobachten und beruhen vermutlich auf einem Mechanismus ist, der evolutionär jünger und in C.elegans noch nicht angelegt ist. Um neue Stoffwechselwege zu identifizieren, die die Lebensspanne beeinflussen, wurden Metabolitenprofile genetischer als auch diätetischer Langlebigkeitsmodelle analysiert. Diese Analysen wiesen den Tryptophan-Stoffwechsel als einen neuen, bisher noch nicht im Fokus stehenden Stoffwechselweg aus, der mit Langlebigkeit in Verbindung steht. N2 - The accumulation of diseases attributed to obesity and sedentary lifestyle has emerged as a current problem in our society. Over time, the accompanying complications increase. Therefore, it is of utmost importance to understand the pathological mechanisms due to overweight and a lack of physical activity, as well as of the aging process and its influencing factors. Our aim was to examine the development of metabolic diseases in a human cohort. We evaluated anthropometric data and metabolic parameters of 584 participants of the prospective MeSyBePo follow-up study with a mean follow-up of more than 5 years. We observed an increase in excess weight in the entire cohort. Likewise worsening of blood pressure and parameters of glucose metabolism was distinctive for this group. FGF21 was identified as a new potential biomarker for the evaluation of the risk of Diabetes mellitus type 2 and the metabolic syndrome. By exclusion of all individuals with a diagnosed Diabetes mellitus type 2 as well as metabolic syndrome at baseline we examined whether FGF21 would have a predictive value for the incidence of Diabetes mellitus type 2 or the metabolic syndrome. We could show that, compared to controls, individuals who developed a metabolic syndrome had significantly elevated FGF21 levels at baseline accompanied by higher BMI, WHR, Hb1Ac and diastolic blood pressure. FGF21 proved to be an independent predictor of the metabolic syndrome following adjustment for age, gender, follow-up time, WHR, systolic blood pressure, HDL, triglycerides and fasting blood glucose levels. Vaspin was identified as another adipokine that influenced the risk of Diabetes mellitus type 2. We examined whether yaspin had a predictive value for the incidence of Diabetes mellitus type 2 under exclusion of all diabetics at baseline and all participants with the intention to lose weight. We could show that, compared to controls, individuals who became diabetic had significantly higher BMI, WHR, HbA1c, systolic blood pressure, triglycerides, fasting plasma glucose as well as 2h glucose. Vaspin had a strong effect on the risk of Diabetes mellitus type 2 when adjusted for age, gender, BMI, follow-up time, Hb1Ac, waist circumference, leukocytes and light activity. In a subcohort of 60 individuals with the intention to lose weight, the long-term effects of weight loss were examined. Weight course of all 60 participants was asked and validated. The majority reduced weight successfully during the initial intervention period of 6 month. However, a distinct trend indicated weight regain over time. The evaluation of cardiovascular risk by the Framingham Risk Score for this cohort was of particular interest. Stratified by weight course, the cardiovascular risk was reduced for those with constant weight. Elevated risk was calculated for individuals with constant regain or strong weight cycling. Overall, the size of our cohort was insufficient to come to a final conclusion. Our data imply that a successful weight loss is associated with a lower estimated cardiovascular risk, while individuals who regain weight are likely to increase their estimated cardiovascular risk. A comparison of the incident cases between groups of Diabetes mellitus type 2 and the metabolic syndrome showed that for those with weight cycling there was a higher risk for an incident of the metabolic syndrome. In order to examine the molecular mechanisms in a simple organism with focus on the interaction of weight reduction and life span, we chose C.elegans. For this model, the influence of a scheduled fasting regime and its influence on life span was examined. Continuous restriction and oversupply of nutrients caused elongated and shortened life spans, respectively. We were interested in the effect of an intermittent fasting regime on life span. The regular switch between ad libitum feeding and restriction as a function of the number of restriction cycles caused various life prolonging effects. The phenomenon of weight regain known amongst humans could not be observed in the nematode. The effect is probably regulated via mechanisms that are phylogenetically younger and therefore not present yet in the nematode. As a speculation, the reward system could be the missing mechanism in the nematode. In order to identify new metabolic pathways that influence life span we analysed metabolic profiles of genetically and dietary longlived models. We identified trytophan metabolism as a new, yet unknown pathway that is related to the regulation of life span. Its significance was examined via RNA interference by inhibiting the degradation and alternation of tryptophan, which resulted in an increase in life span. In summary, we were able to identify two new hormones as predictors for the metabolic syndrome and Diabetes mellitus type 2 - Vaspin and FGF21. We showed that a successful weight reduction is often followed by weight regain and that this is associated with negative metabolic consequences. The limitation of our study is the small size of the cohort. Therefore a final evaluation of the examined relations is not yet possible. For the nematode C.elegans, we could show that the frequency of fasting periods is a life extending factor that should not be underestimated. We assume that the mechanisms behind the negative metabolic consequences of an intended weight reduction are phylogenetically younger and therefore not yet present in the nematode. In an unbiased analyses of the changes in metabolic profiles in different nematodes, we were able to prove the importance of the tryptophan pathway for longevity in the nematode. KW - Kalorienrestriktion KW - Gewichtsreduktion KW - kardiovaskuläres Risiko KW - caloric restriction KW - weight reduction KW - cardiovascular risk Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83147 ER - TY - THES A1 - Schulz, Anneli T1 - Search for gamma-ray emission from bow shocks of runaway stars T1 - Suche nach Gammastrahlungsemission aus Bugwellen von Schnellläufersternen N2 - The mystery of the origin of cosmic rays has been tackled for more than hundred years and is still not solved. Cosmic rays are detected with energies spanning more than 10 orders of magnitude and reaching energies up to ~10²¹ eV, far higher than any man-made accelerator can reach. Different theories on the astrophysical objects and processes creating such highly energetic particles have been proposed. A very prominent explanation for a process producing highly energetic particles is shock acceleration. The observation of high-energy gamma rays from supernova remnants, some of them revealing a shell like structure, is clear evidence that particles are accelerated to ultrarelativistic energies in the shocks of these objects. The environments of supernova remnants are complex and challenge detailed modelling of the processes leading to high-energy gamma-ray emission. The study of shock acceleration at bow shocks, created by the supersonic movement of individual stars through the interstellar medium, offers a unique possibility to determine the physical properties of shocks in a less complex environment. The shocked medium is heated by the stellar and the shock excited radiation, leading to thermal infrared emission. 28 bow shocks have been discovered through their infrared emission. Nonthermal radiation in radio and X-ray wavelengths has been detected from two bow shocks, pointing to the existence of relativistic particles in these systems. Theoretical models of the emission processes predict high-energy and very high-energy emission at a flux level in reach of current instruments. This work presents the search for gamma-ray emission from bow shocks of runaway stars in the energy regime from 100MeV to ~100TeV. The search is performed with the large area telescope (LAT) on-board the Fermi satellite and the H.E.S.S. telescopes located in the Khomas Highland in Namibia. The Fermi-LAT was launched in 2008 and is continuously scanning the sky since then. It detects photons with energies from 20MeV to over 300 GeV and has an unprecedented sensitivity. The all-sky coverage allows us to study all 28 bow shocks of runaway stars listed in the E-BOSS catalogue of infrared bow shocks. No significant emission was detected from any of the objects, although predicted by several theoretical models describing the non-thermal emission of bow shocks of runaway stars. The H.E.S.S. experiment is the most sensitive system of imaging atmospheric Cherenkov telescopes. It detects photons from several tens of GeV to ~100TeV. Seven of the bow shocks have been observed with H.E.S.S. and the data analysis is presented in this thesis. The analyses of the very-high energy data did not reveal significant emission from any of the sources either. This work presents the first systematic search for gamma-ray emission from bow shocks of runaway stars. For the first time Fermi-LAT data was specifically analysed to reveal emission from bow shocks of runaway stars. In the TeV regime no searches for emission from theses objects have been published so far, the study presented here is the first in this energy regime. The level of the gamma-ray emission from bow shocks of runaway stars is constrained by the calculated upper limits over six orders in magnitude in energy. The upper limits calculated for the bow shocks of runaway stars in the course of this work, constrain several models. For the best candidate, ζ Ophiuchi, the upper limits in the Fermi-LAT energy range are lower than the predictions by a factor ~5. This challenges the assumptions made in this model and gives valuable input for further modelling approaches. The analyses were performed with the software packages provided by the H.E.S.S. and Fermi collaborations. The development of a unified analysis framework for gamma-ray data, namely GammaLib/ctools, is rapidly progressing within the CTA consortium. Recent implementations and cross-checks with current software frameworks are presented in the Appendix. N2 - Das Rätsel des Ursprungs der kosmischen Strahlung wird seit über 100 Jahren angegangen und ist noch immer nicht gelöst. Kosmische Strahlung wird mit Energien die zehn Größenordnungen überspannen gemessen und erreicht Energien bis zu ~10²¹ eV, weit höher als irgendein menschengemachter Beschleuniger erzeugen kann. Verschiedene Theorien über die astrophysikalischen Objekte und Prozesse, die solch hochenergetische Teilchen erzeugen können, wurden vorgeschlagen. Eine prominente Erklärung für einen Prozess, der hochenergetische Teilchen erzeugt ist Schockbeschleunigung. Die Detektion von hochenergetischer Gammastrahlung von Supernovaüberresten, von denen einige schalenförmige Strukturen offenbarten, ist ein klarer Beweis für die Beschleunigung von Teilchen zu ultrarelativistischen Energien in den Schocks dieser Objekte. Die Umgebung von Supernovaüberresten ist komplex und das detaillierte Modellieren der Prozesse die zu hochenergetischer Gammastrahlung führen herausfordernd. Die Untersuchung von Schockbeschleunigung an Bugwellen, die durch individuelle Sterne erzeugt werden, die sich mit Überschallgeschwindigkeit durch das interstellare Medium bewegen, bietet die einmalige Gelegenheit die physikalischen Eigenschaften von Schocks in einer weniger komplexen Umgebung zu bestimmen. Das komprimierte ("geschockte") Medium wird durch die Strahlung des Sterns und die durch den Schock angeregte Strahlung erhitzt und sendet infolgedessen thermische Infrarot-Strahlung aus. Nichtthermische Strahlung, die auf die Existenz von relativistischen Teilchen hinweist, wurde von zwei Bugwellen in Radio- und Röntgen-Wellenlängen gemessen. Theoretische Modelle der Strahlungsprozesse sagen hochenergetische und sehr hochenergetische Strahlung auf einem Niveau, welches mit aktuellen Instrumenten gemessen werden kann, voraus. Diese Arbeit präsentiert die Suche nach hochenergetischer Gammastrahung von Bugwellen von Schnellläufersternen in einem Energiebereich von 100MeV bis ~100TeV. Diese Suche wird mit dem "large area telescope"(LAT) an Bord des Fermi Satelliten und den H.E.S.S. Teleskopen, die im Khomas Hochland in Namibia in Betrieb sind, durchgeführt. Der Fermi Satellit wurde 2008 gestartet und das Fermi-LAT durchmustert seitdem kontinuierlich den Himmel. Es detektiert Photonen im Energiebereich von 20MeV bis über 300GeV und hat eine noch nie dagewesene Sensitivität. Die Abdeckung des gesamten Himmels erlaubt es alle 28 Bugwellen von Schnellläufersternen, die im E-BOSS Katalog aufgelistet sind, zu untersuchen. Von keiner der Bugwellen der Schnellläufersterne konnte signifikante Strahlung nachgewiesen werden, obwohl diese von theoretischen Modellen, die die nichtthermische Emission von Bugwellen von Schnellläufersternen beschreiben, vorausgesagt wurde. Das H.E.S.S. Experiment ist das sensitivste System von abbildenden Cherenkovteleskopen. Es kann Photonen mit Energien von einigen zehn GeV bis zu ~100TeV nachweisen. Sieben der Bugwellen von Schnellläufersternen wurden mit H.E.S.S. beobachtet und die Analyse der Daten wird in dieser Arbeit präsentiert. Auch die Analysen der sehr hochenergetischen Strahlung enthüllten keine signifikante Strahlung aus den Bugwellen der Schnellläufersterne. Diese Arbeit stellt die erste systematische Suche nach Gammastrahlung aus Bugwellen von Schnellläufersternen vor. Zum ersten Mal wurden Fermi-LAT Daten speziell zur Suche nach Emission von diesen Objekten analysiert. Im TeV-Energiebereich wurden bisher noch keine Suchen nach Gammastrahlung von Schnellläufersternen publiziert, die hier vorgestellte Studie ist also die erste in diesem Energiebereich. Das Niveau des Gammastrahlungflusses von Schnellläufersternen wird über einen sechs Größenordnungen überspannenden Energiebereich eingeschränkt. Die oberen Grenzen des Gammastrahlungs usses aus Bugwellen von Schnellläufersternen schränken verschiedene Modelle ein. Für den besten Kandidaten, ζ Ophiuchi, liegen die berechneten oberen Grenzen im Fermi-LAT Energiebereich einen Faktor ~5 unter den Vorhersagen. Dies fordert die Annahmen des Modells heraus und liefert wertvolle Bedingungen für weitere Modellierungsansätze. Die präsentierten Analysen wurden mit den Softwarepakten, die von den Fermi und H.E.S.S. Kollaborationen zur Verfügung gestellt werden, durchgeführt. Die Entwicklung einer gemeinsamen Analyseumgebung namens GammaLib/ctools wird im Rahmen des CTA Konsortiums umgesetzt. Neue Implementierungen und Gegenproben zu den momentanen Analyseumgebungen werden im Anhang präsentiert. KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - GammaLib/ctools KW - Bugwellenschocks KW - Schnellläufersterne KW - gamma-ray astronomy KW - Fermi KW - H.E.S.S KW - gammalib/ctools KW - bow shocks KW - runaway stars Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73905 ER - TY - THES A1 - Schultheiss, Corinna T1 - Die Bewertung der pharyngalen Schluckphase mittels Bioimpedanz T1 - The valuation of the pharyngeal phase of swallowing by means of bioimpedance BT - Evaluation eines Mess- und Diagnostikverfahrens BT - evaluation of a measuring procedure and diagnostics procedure N2 - Schlucken ist ein lebensnotwendiger Prozess, dessen Diagnose und Therapie eine enorme Herausforderung bedeutet. Die Erkennung und Beurteilung von Schlucken und Schluckstörungen erfordert den Einsatz von technisch aufwendigen Verfahren, wie Videofluoroskopie (VFSS) und fiberoptisch-endoskopische Schluckuntersuchung (FEES), die eine hohe Belastung für die Patienten darstellen. Beide Verfahren werden als Goldstandard in der Diagnostik von Schluckstörungen eingesetzt. Die Durchführung obliegt in der Regel ärztlichem Personal. Darüber hinaus erfordert die Auswertung des Bildmaterials der Diagnostik eine ausreichend hohe Erfahrung. In der Therapie findet neben den klassischen Therapiemethoden, wie z.B. diätetische Modifikationen und Schluckmanöver, auch zunehmend die funktionelle Elektrostimulation Anwendung. Ziel der vorliegenden Dissertationsschrift ist die Evaluation eines im Verbundprojekt BigDysPro entwickelten Bioimpedanz (BI)- und Elektromyographie (EMG)-Messsystems. Es wurde geprüft, ob sich das BI- und EMG-Messsystem eignet, sowohl in der Diagnostik als auch in der Therapie als eigenständiges Messsystem und im Rahmen einer Schluckneuroprothese eingesetzt zu werden. In verschiedenen Studien wurden gesunde Probanden für die Überprüfung der Reproduzierbarkeit (Intra-und Interrater-Reliabilität), der Unterscheidbarkeit von Schluck- und Kopfbewegungen und der Beeinflussung der Biosignale (BI, EMG) durch verschiedene Faktoren (Geschlecht der Probanden, Leitfähigkeit, Konsistenz und Menge der Nahrung) untersucht. Durch zusätzliche Untersuchungen mit Patienten wurde einerseits der Einfluss der Elektrodenart geprüft. Andererseits wurden parallel zur BI- und EMG-Messung auch endoskopische (FEES) und radiologische Schluckuntersuchungen (VFSS) durchgeführt, um die Korrelation der Biosignale mit der Bewegung anatomischer Strukturen (VFSS) und mit der Schluckqualität (FEES) zu prüfen. Es wurden 31 gesunde Probanden mit 1819 Schlucken und 60 Patienten mit 715 Schlucken untersucht. Die Messkurven zeigten einen typischen, reproduzierbaren Signalverlauf, der mit anatomischen und funktionellen Änderungen während der pharyngalen Schluckphase in der VFSS korrelierte (r > 0,7). Aus dem Bioimpedanzsignal konnten Merkmale extrahiert werden, die mit physiologischen Merkmalen eines Schluckes, wie verzögerter laryngealer Verschluss und Kehlkopfhebung, korrelierten und eine Einschätzung der Schluckqualität in Übereinstimmung mit der FEES ermöglichten. In den Signalverläufen der Biosignale konnten signifikante Unterschiede zwischen Schluck- und Kopfbewegungen und den Nahrungsmengen und -konsistenzen nachgewiesen werden. Im Gegensatz zur Nahrungsmenge und -konsistenz zeigte die Leitfähigkeit der zu schluckenden Nahrung, das Geschlecht der Probanden und die Art der Elektroden keinen signifikanten Einfluss auf die Messsignale. Mit den Ergebnissen der Evaluation konnte gezeigt werden, dass mit dem BI- und EMG-Messsystem ein neuartiges und nicht-invasives Verfahren zur Verfügung steht, das eine reproduzierbare Darstellung der pharyngalen Schluckphase und ihrer Veränderungen ermöglicht. Daraus ergeben sich vielseitige Einsatzmöglichkeiten in der Diagnostik, z.B. Langzeitmessung zur Schluckfrequenz und Einschätzung der Schluckqualität, und in der Therapie, z.B. der Einsatz in einer Schluckneuroprothese oder als Biofeedback zur Darstellung des Schluckes, von Schluckstörungen. N2 - Swallowing is a vital process. Its diagnosis and therapy represent enourmous medical challenges. The detection and assessment of swallows and swallowing disorders require elaborate techniques such as videofluoroscopy (VFSS) and fiberoptic endoscopic evaluation of swallowing (FEES), which entail a high burden for the patient. Both methods are currently used as a goldstandard in the diagnosis and therapy of swallowing disorders. The measurements must, in general, be performed and evaluated by experienced medical personnel. In therapy, dietary modifications and swallowing maneuvers are common methods. But also functional electrical stimulation (FES) is increasingly used. The goal of this doctoral thesis was the evaluation of the combined bioimpedance (BI) and electromyography (EMG) measurement system that was developed within the research project BigDysPro. In particular, it should be examined whether the system can be used in the diagnosis and therapy of swallowing disorders as an independent measurement system and in the context of a swallowing neuroprosthesis. Several studies were conducted with healthy subjects to assess the reproducibility of the measurements, the distinction of swallowing from head movements, and the influence of different factors (i.e. the subject's gender as well as amount, consistency, and conductivity of the food) on the bioimpedance and electromyography. In additional experiments with patients, the influence of the electrode type, i.e. surface vs. needle electrodes, was examined. Furthermore, patients were examined with FEES and VFSS in parallel measurements with the new system. Thereby, the correlation of the BI and EMG signals with movements of anatomical structures (VFSS) and with the swallowing quality (FEES) was assessed. In these studies, 31 healthy subjects with 1819 swallows and 60 patients with 715 swallows were examined. The measured signals show a typical, reproducable run of the curve, that correlates with the anatomical and functional alterations observed by videofluoroscopy during the pharyngeal phase of swallowing (r > 0, 7). From the curve of the bioimpedance, features were extracted to assess the quality of swallowing. These features were demonstrated to correlate with physiological phenomena, such as delayed laryngeal closure and larynx elevation. Therefore, they were used to assess the swallow quality in accordance with fiberoptic endoscopic examination of swallowing. Significant differences were found in the measurement signals of swallows and head movements, as well as in the signals from different food amounts and consistencies. In contrast, the conductivity of the food, the gender of the subjects, and the type of electrodes had no significant effect on the curve of the bioimpedance and the electromyography. From the results of the evaluation, it is concluded that the combined bioimpedance and electromyography measurement system represents a novel, non-invasive tool. It enables the reproducible assessment of the pharyngeal phase of swallowing. In diagnosis, the system might be used, e.g., in long-time measurements for the assessment of swallowing frequency and quality. In therapy, the method can be implemented in a swallowing neuroprosthesis or might be used in a biofeedback system. T3 - Spektrum Patholinguistik - Schriften - 7 KW - pharyngale Schluckphase KW - Schluckstörungen KW - Bioimpdanz KW - EMG KW - pharyngeal phase of swallowing KW - dysphagia KW - bioimpedance KW - emg Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69589 SN - 978-3-86956-284-1 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schubert, Marcel T1 - Elementary processes in layers of electron transporting Donor-acceptor copolymers : investigation of charge transport and application to organic solar cells T1 - Elementare Prozesse in Schichten elektronen-transportierender Donator-Akzeptor-Copolymere : Untersuchung des Ladungstransports und Anwendung in Organischen Solarzellen N2 - Donor-acceptor (D-A) copolymers have revolutionized the field of organic electronics over the last decade. Comprised of a electron rich and an electron deficient molecular unit, these copolymers facilitate the systematic modification of the material's optoelectronic properties. The ability to tune the optical band gap and to optimize the molecular frontier orbitals as well as the manifold of structural sites that enable chemical modifications has created a tremendous variety of copolymer structures. Today, these materials reach or even exceed the performance of amorphous inorganic semiconductors. Most impressively, the charge carrier mobility of D-A copolymers has been pushed to the technologically important value of 10 cm^{2}V^{-1}s^{-1}. Furthermore, owed to their enormous variability they are the material of choice for the donor component in organic solar cells, which have recently surpassed the efficiency threshold of 10%. Because of the great number of available D-A copolymers and due to their fast chemical evolution, there is a significant lack of understanding of the fundamental physical properties of these materials. Furthermore, the complex chemical and electronic structure of D-A copolymers in combination with their semi-crystalline morphology impede a straightforward identification of the microscopic origin of their superior performance. In this thesis, two aspects of prototype D-A copolymers were analysed. These are the investigation of electron transport in several copolymers and the application of low band gap copolymers as acceptor component in organic solar cells. In the first part, the investigation of a series of chemically modified fluorene-based copolymers is presented. The charge carrier mobility varies strongly between the different derivatives, although only moderate structural changes on the copolymers structure were made. Furthermore, rather unusual photocurrent transients were observed for one of the copolymers. Numerical simulations of the experimental results reveal that this behavior arises from a severe trapping of electrons in an exponential distribution of trap states. Based on the comparison of simulation and experiment, the general impact of charge carrier trapping on the shape of photo-CELIV and time-of-flight transients is discussed. In addition, the high performance naphthalenediimide (NDI)-based copolymer P(NDI2OD-T2) was characterized. It is shown that the copolymer posses one of the highest electron mobilities reported so far, which makes it attractive to be used as the electron accepting component in organic photovoltaic cells.\par Solar cells were prepared from two NDI-containing copolymers, blended with the hole transporting polymer P3HT. I demonstrate that the use of appropriate, high boiling point solvents can significantly increase the power conversion efficiency of these devices. Spectroscopic studies reveal that the pre-aggregation of the copolymers is suppressed in these solvents, which has a strong impact on the blend morphology. Finally, a systematic study of P3HT:P(NDI2OD-T2) blends is presented, which quantifies the processes that limit the efficiency of devices. The major loss channel for excited states was determined by transient and steady state spectroscopic investigations: the majority of initially generated electron-hole pairs is annihilated by an ultrafast geminate recombination process. Furthermore, exciton self-trapping in P(NDI2OD-T2) domains account for an additional reduction of the efficiency. The correlation of the photocurrent to microscopic morphology parameters was used to disclose the factors that limit the charge generation efficiency. Our results suggest that the orientation of the donor and acceptor crystallites relative to each other represents the main factor that determines the free charge carrier yield in this material system. This provides an explanation for the overall low efficiencies that are generally observed in all-polymer solar cells. N2 - Donator-Akzeptor (D-A) Copolymere haben das Feld der organischen Elektronik revolutioniert. Bestehend aus einer elektronen-reichen und einer elektronen-armen molekularen Einheit,ermöglichen diese Polymere die systematische Anpassung ihrer optischen und elektronischen Eigenschaften. Zu diesen zählen insbesondere die optische Bandlücke und die Lage der Energiezustände. Dabei lassen sie sich sehr vielseitig chemisch modifizieren, was zu einer imensen Anzahl an unterschiedlichen Polymerstrukturen geführt hat. Dies hat entscheidend dazu beigetragen, dass D-A-Copolymere heute in Bezug auf ihren Ladungstransport die Effizienz von anorganischen Halbleitern erreichen oder bereits übetreffen. Des Weiteren lassen sich diese Materialien auch hervorragend in Organischen Solarzellen verwenden, welche jüngst eine Effizienz von über 10% überschritten haben. Als Folge der beträchtlichen Anzahl an unterschiedlichen D-A-Copolymeren konnte das physikalische Verständnis ihrer Eigenschaften bisher nicht mit dieser rasanten Entwicklung Schritt halten. Dies liegt nicht zuletzt an der komplexen chemischen und mikroskopischen Struktur im Film, in welchem die Polymere in einem teil-kristallinen Zustand vorliegen. Um ein besseres Verständnis der grundlegenden Funktionsweise zu erlangen, habe ich in meiner Arbeit sowohl den Ladungstransport als auch die photovoltaischen Eigenschaften einer Reihe von prototypischen, elektronen-transportierenden D-A Copolymeren beleuchtet. Im ersten Teil wurden Copolymere mit geringfügigen chemischen Variationen untersucht. Diese Variationen führen zu einer starken Änderung des Ladungstransportverhaltens. Besonders auffällig waren hier die Ergebnisse eines Polymers, welches sehr ungewöhnliche transiente Strom-Charakteristiken zeigte. Die nähere Untersuchung ergab, dass in diesem Material elektrisch aktive Fallenzustände existieren. Dieser Effekt wurde dann benutzt um den Einfluss solcher Fallen auf transiente Messung im Allgemeinen zu beschreiben. Zusätzlich wurde der Elektronentransport in einem neuartigen Copolymer untersucht, welche die bis dato größte gemesse Elektronenmobilität für konjugierte Polymere zeigte. Darauf basierend wurde versucht, die neuartigen Copolymere als Akzeptoren in Organischen Solarzellen zu implementieren. Die Optimierung dieser Zellen erwies sich jedoch als schwierig, konnte aber erreicht werden, indem die Lösungseigenschaften der Copolymere untersucht und systematisch gesteuert wurden. Im Weiteren werden umfangreiche Untersuchungen zu den relevanten Verlustprozessen gezeigt. Besonders hervorzuheben ist hier die Beobachtung, dass hohe Effizienzen nur bei einer coplanaren Packung der Donator/Akzeptor-Kristalle erreicht werden können. Diese Struktureigenschaft wird hier zum ersten Mal beschrieben und stellt einen wichtigen Erkenntnisgewinn zum Verständnis von Polymersolarzellen dar. KW - Organische Solarzellen KW - Ladungstransport KW - Donator-Akzeptor-Copolymere KW - Alternative Akzeptorpolymere KW - Polymer-Kristalle KW - organic solar cells KW - charge transport KW - Donor-acceptor copolymers KW - alternative electron acceptors KW - polymer crystal orientation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70791 ER - TY - THES A1 - Schollaen, Karina T1 - Tracking climate signals in tropical trees T1 - Klimasignale in tropischen Hölzern BT - new insights from Indonesian stable isotope records BT - neue Erkenntnisse von stabilen Isotopendaten aus Indonesien N2 - The tropical warm pool waters surrounding Indonesia are one of the equatorial heat and moisture sources that are considered as a driving force of the global climate system. The climate in Indonesia is dominated by the equatorial monsoon system, and has been linked to El Niño-Southern Oscillation (ENSO) events, which often result in severe droughts or floods over Indonesia with profound societal and economic impacts on the populations living in the world's fourth most populated country. The latest IPCC report states that ENSO will remain the dominant mode in the tropical Pacific with global effects in the 21st century and ENSO-related precipitation extremes will intensify. However, no common agreement exists among climate simulation models for projected change in ENSO and the Australian-Indonesian Monsoon. Exploring high-resolution palaeoclimate archives, like tree rings or varved lake sediments, provide insights into the natural climate variability of the past, and thus helps improving and validating simulations of future climate changes. Centennial tree-ring stable isotope records | Within this doctoral thesis the main goal was to explore the potential of tropical tree rings to record climate signals and to use them as palaeoclimate proxies. In detail, stable carbon (δ13C) and oxygen (δ18O) isotopes were extracted from teak trees in order to establish the first well-replicated centennial (AD 1900-2007) stable isotope records for Java, Indonesia. Furthermore, different climatic variables were tested whether they show significant correlation with tree-ring proxies (ring-width, δ13C, δ18O). Moreover, highly resolved intra-annual oxygen isotope data were established to assess the transfer of the seasonal precipitation signal into the tree rings. Finally, the established oxygen isotope record was used to reveal possible correlations with ENSO events. Methodological achievements | A second goal of this thesis was to assess the applicability of novel techniques which facilitate and optimize high-resolution and high-throughput stable isotope analysis of tree rings. Two different UV-laser-based microscopic dissection systems were evaluated as a novel sampling tool for high-resolution stable isotope analysis. Furthermore, an improved procedure of tree-ring dissection from thin cellulose laths for stable isotope analysis was designed. The most important findings of this thesis are: I) The herein presented novel sampling techniques improve stable isotope analyses for tree-ring studies in terms of precision, efficiency and quality. The UV-laser-based microdissection serve as a valuable tool for sampling plant tissue at ultrahigh-resolution and for unprecedented precision. II) A guideline for a modified method of cellulose extraction from wholewood cross-sections and subsequent tree-ring dissection was established. The novel technique optimizes the stable isotope analysis process in two ways: faster and high-throughput cellulose extraction and precise tree-ring separation at annual to high-resolution scale. III) The centennial tree-ring stable isotope records reveal significant correlation with regional precipitation. High-resolution stable oxygen values, furthermore, allow distinguishing between dry and rainy season rainfall. IV) The δ18O record reveals significant correlation with different ENSO flavors and demonstrates the importance of considering ENSO flavors when interpreting palaeoclimatic data in the tropics. The findings of my dissertation show that seasonally resolved δ18O records from Indonesian teak trees are a valuable proxy for multi-centennial reconstructions of regional precipitation variability (monsoon signals) and large-scale ocean-atmosphere phenomena (ENSO) for the Indo-Pacific region. Furthermore, the novel methodological achievements offer many unexplored avenues for multidisciplinary research in high-resolution palaeoclimatology. N2 - Die tropischen Gewässer um Indonesien sind eine der äquatorialen Wärme- und Feuchtigkeitsquellen, die als treibende Kraft des globalen Klimasystems betrachtet werden können. Das Klima in Indonesien ist geprägt durch das Australisch-Indonesische Monsunsystem. Weiterhin besteht eine Verknüpfung mit El Niño-Southern Oszillation (ENSO) Ereignissen, die oft zu schweren Dürren oder Überschwemmungen in der Region mit tiefgreifenden gesellschaftlichen und wirtschaftlichen Folgen führen. Der neueste IPCC-Bericht legt dar, dass ENSO auch in den nächsten 100 Jahren das vorherrschende Klimaphänomen im tropischen Pazifik bleiben wird. Ferner wird davon ausgegangen, dass sich die ENSO-bezogenen Niederschlagsextrema intensivieren werden. Wenig Übereinstimmung herrscht jedoch bislang zwischen den Klimasimulationsmodellen in Bezug auf die voraussichtlichen Veränderungen von ENSO und dem Australisch-Indonesischen Monsunsystem. Hochaufgelöste Paläoklima-Archive, wie z.B. Jahrringe oder warvierte Seesedimente, geben Auskunft über die natürliche Klimavariabilität der Vergangenheit und können somit dazu beitragen, die Computersimulationen der künftigen Klimaentwicklung zu verbessern und zu validieren. Hundertjährige stabile Jahrring-Isotopenchronologien | Das Hauptziel dieser Doktorarbeit war es, dass Potenzial von tropischen Jahrringen zur Aufzeichnung von Klimasignalen herauszustellen und deren Evaluierung als Paläoklimaproxys. Im Detail wurden stabile Kohlenstoff- (δ13C) und Sauerstoff- (δ18O) Isotopenverhältnisse in Teakbäumen analysiert, und die ersten gut replizierten hundertjährigen (AD 1900-2007) stabilen Isotopenchronologien aus Java (Indonesien) erstellt. Dabei wurden verschiedene klimatische Einflussgrößen getestet, ob diese signifikante Korrelationen mit den Jahrringparametern aufzeigen. Weiterhin wurden hochaufgelöste intra-annuelle Sauerstoffisotopenzeitreihen erstellt, um den Transfer des saisonalen Niederschlagssignals in den jeweiligen Jahrring zu bemessen. Die ermittelte Sauerstoff-Isotopenchronologie wurde anschließend auf mögliche ENSO Signale hin untersucht. Methodische Errungenschaften | Ein zweites Ziel dieser Arbeit war es neue Verfahren zur Analyse stabiler Isotope in Baumjahrringen zu entwickeln und zu optimieren. Zwei verschiedene UV-Lasermikrodissektions-Systeme wurden getestet als neues präzises Präparationswerkzeug für stabile Isotopenstudien. Darüber hinaus wurde eine verbesserte Methode für die Probenaufbereitung stabiler Isotopenmessungen anhand von Zellulose-Dünnschnitten entwickelt. Die wichtigsten Ergebnisse dieser Doktorarbeit sind: I) Die hier vorgestellten neuartigen Techniken zu Probenvorbereitung verbessern die Analyse stabiler Isotope für Jahrringstudien in Hinsicht auf Präzision, Effizienz und Qualität. Es wurde gezeigt, dass die UV-Lasermikrodissektion eine wertvolle Technik ist, um die Beprobung von Pflanzengewebe in höchster Auflösung und beispielloser Präzision durchzuführen. II) Es ist gelungen, einen Leitfaden für ein modifiziertes Verfahren der Zelluloseextraktion an Gesamtholz-Dünnschnitten und der anschließenden Jahrringaufbereitung zu erstellen. Diese neuartige Methode optimiert die Analyse stabiler Isotopenzeitreihen in zweierlei Hinsicht: schnellere und effiziente Zelluloseextraktion und präzise Trennung der Jahrringsequenzen in inter-annueller bis intra-annuelle Auflösung. III) Die hundertjährigen stabilen Jahrring-Isotopenchronologien weisen signifikante Korrelationen mit dem regionalen Niederschlag auf. In den hochaufgelösten stabilen Sauerstoffisotopenwerten spiegelt sich deutlich das Niederschlagssignal der Trocken- und der Regenzeit wieder. IV) Die stabile Sauerstoffisotopenzeitreihe zeigt signifikante Korrelationen mit verschiedenen ENSO Phasen. Dies betont, dass die verschiedenen ENSO Phasen bei der Interpretation von tropischen Paläodaten zu berücksichtigen sind. Die Ergebnisse der Dissertation zeigen, dass saisonal aufgelöste stabile Sauerstoffisotopenchronologien von indonesischen Teakbäumen ein geeigneter Proxy für mehrhundertjährige Rekonstruktionen der regionalen Niederschlagsvariabilität (Monsun-Signale) und großräumiger Ozean-Atmosphären-Systeme (ENSO) für den Indopazifik ist. Darüber hinaus bieten die neuartigen methodischen Errungenschaften viele neue Ansätze für multidisziplinäre hochaufgelöste Studien in der paläoklimatologischen Forschung. KW - Stabile Sauerstoff- und Kohlenstoffisotope KW - Dendroklimatologie KW - Tectona grandis KW - Tropen KW - UV-Lasermikrodissektion KW - oxygen and carbon stable isotopes KW - dendroclimatology KW - Tectona grandis KW - tropics KW - UV-laser microdissection Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71947 ER - TY - THES A1 - Schmitt, Clemens Nikolaus Zeno T1 - The role of protein metal complexes in the mechanics of Mytilus californianus byssal threads T1 - Der Einfluss von Protein-Metall-Komplexen auf die mechanischen Eigenschaften der Byssusfäden von Mytilus californianus N2 - Protein-metal coordination complexes are well known as active centers in enzymatic catalysis, and to contribute to signal transduction, gas transport, and to hormone function. Additionally, they are now known to contribute as load-bearing cross-links to the mechanical properties of several biological materials, including the jaws of Nereis worms and the byssal threads of marine mussels. The primary aim of this thesis work is to better understand the role of protein-metal cross-links in the mechanical properties of biological materials, using the mussel byssus as a model system. Specifically, the focus is on histidine-metal cross-links as sacrificial bonds in the fibrous core of the byssal thread (Chapter 4) and L-3,4-dihydroxyphenylalanine (DOPA)-metal bonds in the protective thread cuticle (Chapter 5). Byssal threads are protein fibers, which mussels use to attach to various substrates at the seashore. These relatively stiff fibers have the ability to extend up to about 100 % strain, dissipating large amounts of mechanical energy from crashing waves, for example. Remarkably, following damage from cyclic loading, initial mechanical properties are subsequently recovered by a material-intrinsic self-healing capability. Histidine residues coordinated to transition metal ions in the proteins comprising the fibrous thread core have been suggested as reversible sacrificial bonds that contribute to self-healing; however, this remains to be substantiated in situ. In the first part of this thesis, the role of metal coordination bonds in the thread core was investigated using several spectroscopic methods. In particular, X-ray absorption spectroscopy (XAS) was applied to probe the coordination environment of zinc in Mytilus californianus threads at various stages during stretching and subsequent healing. Analysis of the extended X-ray absorption fine structure (EXAFS) suggests that tensile deformation of threads is correlated with the rupture of Zn-coordination bonds and that self-healing is connected with the reorganization of Zn-coordination bond topologies rather than the mere reformation of Zn-coordination bonds. These findings have interesting implications for the design of self-healing metallopolymers. The byssus cuticle is a protective coating surrounding the fibrous thread core that is both as hard as an epoxy and extensible up to 100 % strain before cracking. It was shown previously that cuticle stiffness and hardness largely depend on the presence of Fe-DOPA coordination bonds. However, the byssus is known to concentrate a large variety of metals from seawater, some of which are also capable of binding DOPA (e.g. V). Therefore, the question arises whether natural variation of metal composition can affect the mechanical performance of the byssal thread cuticle. To investigate this hypothesis, nanoindentation and confocal Raman spectroscopy were applied to the cuticle of native threads, threads with metals removed (EDTA treated), and threads in which the metal ions in the native tissue were replaced by either Fe or V. Interestingly, replacement of metal ions with either Fe or V leads to the full recovery of native mechanical properties with no statistical difference between each other or the native properties. This likely indicates that a fixed number of metal coordination sites are maintained within the byssal thread cuticle – possibly achieved during thread formation – which may provide an evolutionarily relevant mechanism for maintaining reliable mechanics in an unpredictable environment. While the dynamic exchange of bonds plays a vital role in the mechanical behavior and self-healing in the thread core by allowing them to act as reversible sacrificial bonds, the compatibility of DOPA with other metals allows an inherent adaptability of the thread cuticle to changing circumstances. The requirements to both of these materials can be met by the dynamic nature of the protein-metal cross-links, whereas covalent cross-linking would fail to provide the adaptability of the cuticle and the self-healing of the core. In summary, these studies of the thread core and the thread cuticle serve to underline the important and dynamic roles of protein-metal coordination in the mechanical function of load-bearing protein fibers, such as the mussel byssus. N2 - Protein-Metall Bindungen sind vor allem durch ihre Rolle in physiologischen Prozessen bekannt. Vor kurzem jedoch wurde eine völlig andere Funktion dieser chemischen Bindungen, als lasttragendes Vernetzungselement in Kieferzangen mariner Ringelwürmer der Gattung Nereis und Byssusfäden mariner Muscheln der Gattung Mytilus (Miesmuscheln) entdeckt. Ziel dieser Dissertation ist es, am Beispiel von M. californianus Byssusfäden, ein besseres Verständnis des Einflusses von Protein-Metall Komplexen auf die mechanischen Eigenschaften biologischer Materialien zu erlangen. Byssusfäden sind Proteinfasern, welche Miesmuscheln zur sicheren Befestigung verwenden. Diese relativ steifen Fäden können bis zu 100 % gedehnt zu werden, ohne zu brechen. Bei sofortiger Wiederbelastung zeigt sich jedoch eine Verschlechterung der mechanischen Eigenschaften des Materials. Erstaunlicherweise können sich die mechanischen Eigenschaften der Fäden hiervon wieder erholen. Es wird angenommen, dass im Faserkern der Byssusfäden die Aminosäure Histidin Bindungen mit Metallionen eingeht, welche als reversible Opferbindungen fungieren können und so einen Selbstheilungsprozess ermöglichen. In dieser Arbeit wurde der Beitrag von Protein-Zink Bindungen zur Mechanik der Byssusfäden mittels Röntgenabsorptionsspektroskopie (XAS), untersucht. Die ermittelten Daten legen nahe, dass Zn-Aminosäure Bindungen unter Dehnung der Byssusfäden brechen. Des Weiteren scheint der Selbstheilungsprozess nicht auf der bloßen Wiederherstellung dieser Bindungen zu beruhen, sondern viel mehr auf der Regenerierung der anfänglichen Bindungsstruktur und -verteilung. Diese Erkenntnisse stellen interessante Konzepte für die Entwicklung von selbstheilenden Metallopolymeren bereit. Die relativ harte Hülle der Byssusfäden schützt den Faserkern vor Abrieb. Laut Literatur basiert ihre Härte und Steifigkeit hauptsächlich auf der Quervernetzung durch Fe-DOPA (eine modifizierte Aminosäure) Bindungen. Jedoch können verschiedene Metalle aus dem Meerwasser in Byssusfäden aufgenommen werden und auch Bindungen mit DOPA bilden. Daher stellt sich die Frage, nach dem Zusammenhang zwischen mechanischen Eigenschaften und der Metallzusammensetzung der Byssushülle. Um dieser Frage nachzugehen, wurden die Metallionen aus der Hülle natürlicher Byssusfäden entfernt, und durch entweder Fe oder V ersetzt. Anschließend wurden die mechanischen Eigenschaften der Hüllen der behandelten und unbehandelten Byssusfäden mittels Nanoindentierung bestimmt. Interessanterweise besteht kein Unterschied der mechanischen Eigenschaften der natürlichen und modifizierten Hüllen der Byssusfäden, was dafür spricht, dass in der Hülle der Byssusfäden eine feste Anzahl an Protein-Metall Quervernetzungspunkten vorhanden ist, die möglicherweise durch den speziellen Produktionsprozess der Fäden festgelegt wird. Dies könnte eine evolutionäre Anpassung des Byssus darstellen, um eine verlässliche Verankerung des Organismus in verschiedenen Umgebungen zu gewährleisten. Während die Dynamik der Protein-Metall Bindungen ihnen eine Rolle als chemische Opferbindung im selbstheilenden Faserkern erlaubt, ermöglicht sie die Funktion der Hülle unter Verwendung verschiedener Metalle. Andere nicht-kovalente Wechselwirkungen haben sicherlich eine ähnliche Dynamik, und kovalente Bindungen sind stabiler, aber nur Protein-Metall Bindungen erlauben eine stabile und dynamische Quervernetzung, ohne die weder das Anpassungsvermögen der Hülle, noch das Selbstheilungsvermögen des Faserkerns möglich wären. Die Untersuchungen der Hülle und des Faserkerns der Byssusfäden verdeutlichen die Wichtigkeit der Protein-Metall Bindungen und ihrer Dynamik für die mechanische Funktion lasttragender Proteinfasern, wie dem Byssus der Miesmuscheln. KW - biomaterials KW - self-healing materials KW - protein-metal interaction KW - Biomaterialien KW - selbstheilende Materialien KW - Protein-Metall-Wechselwirkung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74216 ER - TY - THES A1 - Schmidt, Lukas T1 - Aerosols and boundary layer structure over Arctic sea ice based on airborne lidar and dropsonde measurements T1 - Aerosol und Grenzschichtstruktur über arktischem Meereis anhand von Flugzeuggetragenen Lidar- und Dropsonden- Messungen N2 - The atmosphere over the Arctic Ocean is strongly influenced by the distribution of sea ice and open water. Leads in the sea ice produce strong convective fluxes of sensible and latent heat and release aerosol particles into the atmosphere. They increase the occurrence of clouds and modify the structure and characteristics of the atmospheric boundary layer (ABL) and thereby influence the Arctic climate. In the course of this study aircraft measurements were performed over the western Arctic Ocean as part of the campaign PAMARCMIP 2012 of the Alfred Wegener Institute for Polar and Marine Research (AWI). Backscatter from aerosols and clouds within the lower troposphere and the ABL were measured with the nadir pointing Airborne Mobile Aerosol Lidar (AMALi) and dropsondes were launched to obtain profiles of meteorological variables. Furthermore, in situ measurements of aerosol properties, meteorological variables and turbulence were part of the campaign. The measurements covered a broad range of atmospheric and sea ice conditions. In this thesis, properties of the ABL over Arctic sea ice with a focus on the influence of open leads are studied based on the data from the PAMARCMIP campaign. The height of the ABL is determined by different methods that are applied to dropsonde and AMALi backscatter profiles. ABL heights are compared for different flights representing different conditions of the atmosphere and of sea ice and open water influence. The different criteria for ABL height that are applied show large variation in terms of agreement among each other, depending on the characteristics of the ABL and its history. It is shown that ABL height determination from lidar backscatter by methods commonly used under mid-latitude conditions is applicable to the Arctic ABL only under certain conditions. Aerosol or clouds within the ABL are needed as a tracer for ABL height detection from backscatter. Hence an aerosol source close to the surface is necessary, that is typically found under the present influence of open water and therefore convective conditions. However it is not always possible to distinguish residual layers from the actual ABL. Stable boundary layers are generally difficult to detect. To illustrate the complexity of the Arctic ABL and processes therein, four case studies are analyzed each of which represents a snapshot of the interplay between atmosphere and underlying sea ice or water surface. Influences of leads and open water on the aerosol and clouds within the ABL are identified and discussed. Leads are observed to cause the formation of fog and cloud layers within the ABL by humidity emission. Furthermore they decrease the stability and increase the height of the ABL and consequently facilitate entrainment of air and aerosol layers from the free troposphere. N2 - Die Verteilung von Meereis und offenem Wasser hat einen starken Einfluss auf die Atmosphäre über dem arktischen Ozean. Eisrinnen (sog. Leads) verursachen konvektive Flüsse von latenter und sensibler Wärme und führen zum Eintrag von Aerosolpartikeln in die Atmosphäre. Dadurch führen sie zum vermehrten Auftreten von Wolken und modifizieren die Struktur und die Eigenschaften der atmosphärischen Grenzschicht (ABL), wodurch das arktische Klima beeinflusst wird. Im Rahmen der Messkampagne PAMARCMIP 2012 des Alfred-Wegener-Instituts (AWI) wurden als Teil dieser Arbeit über dem westlichen arktischen Ozean Flugzeugmessungen durchgeführt. Mithilfe des nach unten gerichteten Airborne Mobile Aerosol Lidar (AMALi) wurde die Rückstreuung von Aerosolen und Wolken in der unteren Troposphäre und ABL gemessen. Dropsonden wurden verwendet, um Profile meteorologischer Größen zu erhalten. Zudem wurden in situ Messungen von Aerosoleigenschaften, meteorologischen Variablen und der Turbulenz durchgeführt. In dieser Arbeit werden die Eigenschaften der ABL über arktischem Meereis basierend auf den Daten der PAMARCMIP Kampagne untersucht. Dabei liegt der Fokus auf dem Einfluss offener Leads auf die ABL. Aus den gewonnenen Dropsondendaten und AMALi Rückstreuprofilen wird die Höhe der ABL mithilfe verschiedener Methoden bestimmt. Die für verschiedene Messflüge und somit unterschiedliche atmosphärische Bedingungen sowie Meereisverteilungen berechneten ABL Höhen werden miteinander verglichen, und somit der Einfluss von offenem Wasser auf die ABL untersucht. Die verschiedenen Methoden zur Bestimmung der ABL Höhe führen zu unterschiedlichen Ergebnissen, je nach Eigenschaften der ABL und ihrer Geschichte. Es wird gezeigt, dass die Methoden für die ABL Höhen-Bestimmung aus der Lidar Rückstreuung, die gewöhnlich für die mittleren Breiten verwendet werden, nur bedingt für arktische Bedingungen geeignet ist. Um die ABL Höhe aus der Rückstreuung ableiten zu können, müssen Aerosole oder Wolken in der Grenzschicht als Tracer vorhanden sein. Dazu ist eine Aerosolquelle nahe der Oberfläche notwendig, welche typischerweise unter dem Einfluss von offenem Wasser und konvektiven Bedingungen vorliegt. Dennoch ist es nicht immer möglich, die aktuelle Grenzschicht von residualen Schichten zu unterscheiden. Stabile Grenzschichten sind im Allgemeinen schwer zu detektieren. Um die Komplexität der arktischen Grenzschicht und die beteiligten Prozesse zu veranschaulichen, werden vier Fallstudien detailliert analysiert, welche jeweils eine Momentaufnahme des Zusammenspiels von Atmosphäre und Meereis oder Wasseroberfläche darstellen. Der Einfluss von Leads und offenem Wasser auf Aerosol und Wolken in der ABL werden identifiziert und diskutiert. Die Bildung von Wolken- und Nebelschichten, verursacht durch den Feuchteeintrag über offenen Leads, wird beobachtet. Zudem verringern leads die Stabilität der ABL, führen zu einer Zunahme ihrer Höhe und begünstigen dadurch Entrainment von Luft und Aerosolschichten aus der freien Troposphäre. KW - polar KW - atmosphere KW - AMALi KW - Polar 5 KW - lead KW - polar KW - Atmosphäre KW - AMALi KW - Polar 5 KW - Eisrinne Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75076 ER - TY - THES A1 - Schipper, Florian T1 - Biomass derived carbon for new energy storage technologies N2 - The thesis deals with the production and evaluation of porous carbon materials for energy storage technologies, namely super capacitors and lithium sulfur batteries. N2 - Die Doktorarbeit befasst sich mit der Produktion und Evaluierung poröser Kohlenstoffmaterialien für die Anwendung in Energiespeichertechnologien, namentlich Superkondensatoren und Lithiumschwefelbatterien. T2 - Biomasse basierende Kohlenstoffe für neue Energiespeichertechnologien KW - Batterien KW - Superkondensatoren KW - Energiespeicher KW - Lithium-Schwefel-Batterien KW - Kohlenstoff KW - battery KW - supercapacitors KW - energy storage KW - lithium sulfur battery KW - carbon Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72045 ER - TY - THES A1 - Scheinemann, Hendrik Alexander T1 - Hygienisierung von Rindergülle und Klärschlämmen mittels milchsaurer Fermentation T1 - Hygienisation of sewage sludge or cattle manure by lactic acid fermentation N2 - Tierische und menschliche Fäkalien aus Landwirtschaft und Haushalten enthalten zahlreiche obligat und opportunistisch pathogene Mikroorganismen, deren Konzentration u. a. je nach Gesundheitszustand der betrachteten Gruppe schwankt. Neben den Krankheitserregern enthalten Fäkalien aber auch essentielle Pflanzennährstoffe (276) und dienen seit Jahrtausenden (63) als Dünger für Feldfrüchte. Mit der unbedarften Verwendung von pathogenbelastetem Fäkaldünger steigt jedoch auch das Risiko einer Infektion von Mensch und Tier. Diese Gefahr erhöht sich mit der globalen Vernetzung der Landwirtschaft, z. B. durch den Import von kontaminierten Futter- bzw. Lebensmitteln (29). Die vorliegende Arbeit stellt die milchsaure Fermentation von Rindergülle und Klärschlamm als alternative Hygienisierungsmethode gegenüber der Pasteurisation in Biogasanlagen bzw. gebräuchlichen Kompostierung vor. Dabei wird ein Abfall der Gram-negativen Bakterienflora sowie der Enterokokken, Schimmel- und Hefepilze unter die Nachweisgrenze von 3 log10KbE/g beobachtet, gleichzeitig steigt die Konzentration der Lactobacillaceae um das Tausendfache. Darüber hinaus wird gezeigt, dass pathogene Bakterien wie Staphylococcus aureus, Salmonella spp., Listeria monocytogenes, EHEC O:157 und vegetative Clostridum perfringens-Zellen innerhalb von 3 Tagen inaktiviert werden. Die Inaktivierung von ECBO-Viren und Spulwurmeiern erfolgt innerhalb von 7 bzw. 56 Tagen. Zur Aufklärung der Ursache der beobachteten Hygienisierung wurde das fermentierte Material auf flüchtige Fettsäuren sowie pH-Wertänderungen untersucht. Es konnte festgestellt werden, dass die gemessenen Werte nicht die alleinige Ursache für das Absterben der Erreger sind, vielmehr wird eine zusätzliche bakterizide Wirkung durch eine mutmaßliche Bildung von Bakteriozinen in Betracht gezogen. Die parasitizide Wirkung wird auf die physikalischen Bedingungen der Fermentation zurückgeführt. Die methodischen Grundlagen basieren auf Analysen mittels zahlreicher klassisch-kultureller Verfahren, wie z. B. der Lebendkeimzahlbestimmung. Darüber hinaus findet die MALDI-TOF-Massenspektrometrie und die klassische PCR in Kombination mit der Gradienten-Gelelektrophorese Anwendung, um kultivierbare Bakterienfloren zu beschreiben bzw. nicht kultivierbare Bakterienfloren stichprobenartig zu erfassen. Neben den Aspekten der Hygienisierung wird zudem die Eignung der Methode für die landwirtschaftliche Nutzung berücksichtigt. Dies findet sich insbesondere in der Komposition des zu fermentierenden Materials wieder, welches für die verstärkte Humusakkumulation im Ackerboden optimiert wurde. Darüber hinaus wird die Masseverlustbilanz während der milchsauren Fermentation mit denen der Kompostierung sowie der Verarbeitung in der Biogasanlage verglichen und als positiv bewertet, da sie mit insgesamt 2,45 % sehr deutlich unter den bisherigen Alternativen liegt (73, 138, 458). Weniger Verluste an organischem Material während der Hygienisierung führen zu einer größeren verwendbaren Düngermenge, die auf Grund ihres organischen Ursprungs zu einer Verstärkung des Humusanteiles im Ackerboden beitragen kann (56, 132). N2 - Manure from animal farms and sewage sludge contain pathogens and opportunistic organisms in various concentrations depending on the health of the herds and human sources. Other than for the presence of pathogens, these waste substances are excellent nutrient sources and constitute a preferred organic fertilizer. However, because of the pathogens, the risks of infection of animals or humans increase with the indiscriminate use of manure, especially liquid manure or sludge, for agriculture. This potential problem can increase with the global connectedness of animal herds fed imported feed grown on fields fertilized with local manures. This paper describes a simple, easy-to-use, low-tech hygienization method which conserves nutrients and does not require large investments in infrastructure. The proposed method uses the microbiotic shift during mesophilic fermentation of cow manure or sewage sludge during which gram-negative bacteria, enterococci and yeasts were inactivated below the detection limit of 3 log10 cfu/g while lactobacilli increased up to a thousand fold. Pathogens like Salmonella, Listeria monocytogenes, Staphylococcus aureus, E. coli EHEC O:157 and vegetative Clostridium perfringens were inactivated within 3 days of fermentation. In addition, ECBO-viruses and eggs of Ascaris suum were inactivated within 7 and 56 days, respectively. Compared to the mass lost through composting (15–57%), the loss of mass during fermentation (< 2.45%) is very low and provides strong economic and ecological benefits for this process. This method might be an acceptable hygienization method for developed as well as undeveloped countries, and could play a key role in public and animal health while safely closing the nutrient cycle by reducing the necessity of using energy-inefficient inorganic fertilizer for crop production. Scheinemann HA, Dittmar K, Stöckel FS, Müller H, Krüger ME (2015) Hygienisation and Nutrient Conservation of Sewage Sludge or Cattle Manure by Lactic Acid Fermentation. PLoS ONE 10(3): e0118230. doi:10.1371/journal.pone.0118230 KW - pathogene Bakterien KW - organischer Dünger KW - terra preta KW - Salmonella KW - Schwarzerde KW - Stoffkreislauf KW - öffentliche Gesundheit KW - terra preta KW - salmonella KW - black earth KW - fertiliser KW - pathogen bacteria KW - compost Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77949 ER - TY - THES A1 - Schaefer, Laura T1 - Synchronisationsphänomene myotendinöser Oszillationen interagierender neuromuskulärer Systeme T1 - Synchronization phenomena of myotendinal oscillations during interaction of neuromuscular systems BT - mit Betrachtung einer Hypothese bezüglich unterschiedlicher Qualitäten isometrischer Muskelaktion BT - considering a hypothesis regarding different qualities of isometric muscle action N2 - Muskeln oszillieren nachgewiesener Weise mit einer Frequenz um 10 Hz. Doch was geschieht mit myofaszialen Oszillationen, wenn zwei neuromuskuläre Systeme interagieren? Die Dissertation widmet sich dieser Fragestellung bei isometrischer Interaktion. Während der Testmessungen ergaben sich Hinweise für das Vorhandensein von möglicherweise zwei verschiedenen Formen der Isometrie. Arbeiten zwei Personen isometrisch gegeneinander, können subjektiv zwei Modi eingenommen werden: man kann entweder isometrisch halten – der Kraft des Partners widerstehen – oder isometrisch drücken – gegen den isometrischen Widerstand des Partners arbeiten. Daher wurde zusätzlich zu den Messungen zur Interaktion zweier Personen an einzelnen Individuen geprüft, ob möglicherweise zwei Formen der Isometrie existieren. Die Promotion besteht demnach aus zwei inhaltlich und methodisch getrennten Teilen: I „Single-Isometrie“ und II „Paar-Isometrie“. Für Teil I wurden mithilfe eines pneumatisch betriebenen Systems die hypothetischen Messmodi Halten und Drücken während isometrischer Aktion untersucht. Bei n = 10 Probanden erfolgte parallel zur Aufzeichnung des Drucksignals während der Messungen die Erfassung der Kraft (DMS) und der Beschleunigung sowie die Aufnahme der mechanischen Muskeloszillationen folgender myotendinöser Strukturen via Mechanomyo- (MMG) bzw. Mechanotendografie (MTG): M. triceps brachii (MMGtri), Trizepssehne (MTGtri), M. obliquus externus abdominis (MMGobl). Pro Proband wurden bei 80 % der MVC sowohl sechs 15-Sekunden-Messungen (jeweils drei im haltenden bzw. drückenden Modus; Pause: 1 Minute) als auch vier Ermüdungsmessungen (jeweils zwei im haltenden bzw. drückenden Modus; Pause: 2 Minuten) durchgeführt. Zum Vergleich der Messmodi Halten und Drücken wurden die Amplituden der myofaszialen Oszillationen sowie die Kraftausdauer herangezogen. Signifikante Unterschiede zwischen dem haltenden und dem drückenden Modus zeigten sich insbesondere im Bereich der Ermüdungscharakteristik. So lassen Probanden im haltenden Modus signifikant früher nach als im drückenden Modus (t(9) = 3,716; p = .005). Im drückenden Modus macht das längste isometrische Plateau durchschnittlich 59,4 % der Gesamtdauer aus, im haltenden sind es 31,6 % (t(19) = 5,265, p = .000). Die Amplituden der Single-Isometrie-Messungen unterscheiden sich nicht signifikant. Allerdings variieren die Amplituden des MMGobl zwischen den Messungen im drückenden Modus signifikant stärker als im haltenden Modus. Aufgrund dieser teils signifikanten Unterschiede zwischen den beiden Messmodi wurde dieses Setting auch im zweiten Teil „Paar-Isometrie“ berücksichtigt. Dort wurden n = 20 Probanden – eingeteilt in zehn gleichgeschlechtliche Paare – während isometrischer Interaktion untersucht. Die Sensorplatzierung erfolgte analog zu Teil I. Die Oszillationen der erfassten MTG- sowie MMG-Signale wurden u.a. mit Algorithmen der Nichtlinearen Dynamik auf ihre Kohärenz hin untersucht. Durch die Paar-Isometrie-Messungen zeigte sich, dass die Muskeln und die Sehnen beider neuromuskulärer Systeme bei Interaktion im bekannten Frequenzbereich von 10 Hz oszillieren. Außerdem waren sie in der Lage, sich bei Interaktion so aufeinander abzustimmen, dass sich eine signifikante Kohärenz entwickelte, die sich von Zufallspaarungen signifikant unterscheidet (Patchanzahl: t(29) = 3,477; p = .002; Summe der 4 längsten Patches: t(29) = 7,505; p = .000). Es wird der Schluss gezogen, dass neuromuskuläre Komplementärpartner in der Lage sind, sich im Sinne kohärenten Verhaltens zu synchronisieren. Bezüglich der Parameter zur Untersuchung der möglicherweise vorhandenen zwei Formen der Isometrie zeigte sich bei den Paar-Isometrie-Messungen zwischen Halten und Drücken ein signifikanter Unterschied bei der Ermüdungscharakteristik sowie bezüglich der Amplitude der MMGobl. Die Ergebnisse beider Teilstudien bestärken die Hypothese, dass zwei Formen der Isometrie existieren. Fraglich ist, ob man überhaupt von Isometrie sprechen kann, da jede isometrische Muskelaktion aus feinen Oszillationen besteht, die eine per Definition postulierte Isometrie ausschließen. Es wird der Vorschlag unterbreitet, die Isometrie durch den Begriff der Homöometrie auszutauschen. Die Ergebnisse der Paar-Isometrie-Messungen zeigen u.a., dass neuromuskuläre Systeme in der Lage sind, ihre myotendinösen Oszillationen so aufeinander abzustimmen, dass kohärentes Verhalten entsteht. Es wird angenommen, dass hierzu beide neuromuskulären Systeme funktionell intakt sein müssen. Das Verfahren könnte für die Diagnostik funktioneller Störungen relevant werden. N2 - Muscles oscillate with a frequency of about 10 Hz. But what happens with myofascial oscillations if two neuromuscular systems interact? The dissertation is devoted to this question during isometric interaction. The test measurements provide hints for the presence of possibly two different forms of isometric muscle action. When two persons work against each other, each individual can subjectively choose to take up one of two modes: one can either hold isometrically – thus resist the force of the partner – or one can push isometrically – and therefore work against the resistance of the partner. In addition to the measurements to determine the interaction of neuromuscular systems, measurements with single individuals were done to evaluate the question, if probably two forms of isometric muscle action exist. The doctoral thesis consists of two separate parts concerning the content and methodology: I “Single Isometric” and II “Coupled Isometric”. For part I the hypothetical measurement modes - “holding” and “pushing” during isometric muscle action - were examined using a pneumatic system. During the measurements of n = 10 subjects the signal of pressure, force (strain gauge) and acceleration were recorded. Furthermore, the detection of the mechanic muscle oscillations of the following myotendinal structures occurred via Mechanomyo- (MMG) and Mechanotendography (MTG), respectively: triceps brachii muscle (MMGtri), tendon of triceps brachii muscle (MTGtri) and obliquus externus abdominis muscle (MMGobl). Each test person performed at 80 % of MVC six 15-seconds-measurements (three at holding and three at pushing mode, respectively; break: 1 min.) as well as four fatigue measurements (two at holding and two at pushing mode, respectively; break: 2 min.). In order to compare the two measurement modes holding and pushing, the amplitude of the myofascial oscillations as well as the force endurance were used. Significant differences between the holding and the pushing mode appeared especially when looking at the characteristics of fatigue. Subjects in the holding mode yielded earlier than during the pushing one (t(9) = 3.716; p = .005). In the pushing mode the longest isometric plateau amounts 59.4 % of the overall duration of the measurement. During holding it lasted 31.6 % (t(19) = 5.265, p = .000). The amplitudes of the single-isometric-measurements did not differ significantly. But the amplitude of the MMGobl varied significantly stronger during the pushing mode comparing to the holding one. Due to these partly significant differences between both measurement modes, this setting was considered for the second part „Coupled-Isometric“, too. For the coupled-isometric-measurements n = 20 subjects – divided into same-sex couples – were investigated during isometric interaction. The placement of the sensors is analogous to part I. The oscillations of the recorded MMG- and MTG-signals were analyzed regarding their coherence inter alia by algorithms of non-linear dynamics. Through the coupled-isometric-measurements it was shown, that also during isometric interaction the muscles and the tendons of both neuromuscular systems oscillate at the known frequency range of 10 Hz. Moreover, the systems are able to coordinate them in such a manner, that a significant coherence appears. This differed significantly from random pairings (number of patches: t(29) = 3.477; p = .002; Sum of 4 longest patches: t(29) = 7.505; p = .000). Thus it is concluded that neuromuscular complementary partners are able to synchronize themselves in the sense of coherent behavior. Regarding the parameters concerning the possibly existing forms of isometric muscle action, a significant difference at the coupled-isometric-measurements between holding and pushing appeared with respect to the characteristics of fatigue as well as the amplitudes of the MMGobl. The results of both sub studies strengthen the hypothesis that two forms of isometric muscle action exist. It is questionable whether one can talk of isometry at all, since each isometric muscle action consists of fine oscillations. This excludes a by definition postulated isometry. It is proposed to exchange this term with homeometry. The results of the coupled-isometric-measurements show inter alia, that neuromuscular systems are able to coordinate their myotendinal oscillations, so that coherent behavior arises. It is supposed that for this both systems have to be functionally intact. This procedure could become relevant for diagnostics of functional disorders. KW - Mechanomyografie KW - myofasziale Oszillationen KW - Isometrie KW - Interaktion KW - Synchronisation KW - mechanomyography KW - myofascial oscillations KW - isometric muscle action KW - interaction KW - synchronization Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72445 ER - TY - THES A1 - Sayago, Jhosnella T1 - Late Paleozoic basin analysis of the Loppa High and Finnmark Platform in the Norwegian Barents Sea : integration of seismic attributes and seismic sequence stratigraphy T1 - Jungpaläozoikum becken analyse der Loppa High und Finnmark Platform in der norwegischen Barentssee : Integration von seismischen Attributen und seismische Sequenzstratigraphie N2 - The subsurface upper Palaeozoic sedimentary successions of the Loppa High half-graben and the Finnmark platform in the Norwegian Barents Sea (southwest Barents Sea) were investigated using 2D/3D seismic datasets combined with well and core data. These sedimentary successions represent a case of mixed siliciclastic-carbonates depositional systems, which formed during the earliest phase of the Atlantic rifting between Greenland and Norway. During the Carboniferous and Permian the southwest part of the Barents Sea was located along the northern margin of Pangaea, which experienced a northward drift at a speed of ~2–3 mm per year. This gradual shift in the paleolatitudinal position is reflected by changes in regional climatic conditions: from warm-humid in the early Carboniferous, changing to warm-arid in the middle to late Carboniferous and finally to colder conditions in the late Permian. Such changes in paleolatitude and climate have resulted in major changes in the style of sedimentation including variations in the type of carbonate factories. The upper Palaeozoic sedimentary succession is composed of four major depositional units comprising chronologically the Billefjorden Group dominated by siliciclastic deposition in extensional tectonic-controlled wedges, the Gipsdalen Group dominated by warm-water carbonates, stacked buildups and evaporites, the Bjarmeland Group characterized by cool-water carbonates as well as by the presence of buildup networks, and the Tempelfjorden Group characterized by fine-grained sedimentation dominated by biological silica production. In the Loppa High, the integration of a core study with multi-attribute seismic facies classification allowed highlighting the main sedimentary unconformities and mapping the spatial extent of a buried paleokarst terrain. This geological feature is interpreted to have formed during a protracted episode of subaerial exposure occurring between the late Palaeozoic and middle Triassic. Based on seismic sequence stratigraphy analysis the palaeogeography in time and space of the Loppa High basin was furthermore reconstructed and a new and more detailed tectono-sedimentary model for this area was proposed. In the Finnmark platform area, a detailed core analysis of two main exploration wells combined with key 2D seismic sections located along the main depositional profile, allowed the evaluation of depositional scenarios for the two main lithostratigraphic units: the Ørn Formation (Gipsdalen Group) and the Isbjørn Formation (Bjarmeland Group). During the mid-Sakmarian, two major changes were observed between the two formations including (1) the variation in the type of the carbonate factories, which is interpreted to be depth-controlled and (2) the change in platform morphology, which evolved from a distally steepened ramp to a homoclinal ramp. The results of this study may help supporting future reservoirs characterization of the upper Palaeozoic units in the Barents Sea, particularly in the Loppa High half-graben and the Finmmark platform area. N2 - Die unterirdischen Sedimentabfolgen des oberen Paläozoikums des Loppa High Halbgrabens und der Finnmark-Plattform in der norwegischen Barentssee (südwestliche Barentssee) wurden mit 2D/3D-Seismik Datensätzen untersucht, welche mit Bohrungs-und Kerndaten kombiniert wurde. Diese Sedimentabfolgen stellen einen Fall von gemischten siliziklastischen-karbonatischen Ablagerungssystemen dar, die während der ersten Phase des Atlantiks-Riftings zwischen Grönland und Norwegen gebildet wurden. Während des Karbons und Perms war der südwestliche Teil der Barentssee entlang des Nordrand von Pangäa lokalisiert, der einen Drift nach Norden mit einer Geschwindigkeit von ~ 2-3 mm pro Jahr erlebte. Diese allmähliche Verschiebung in der paläolatitudinalen Position spiegelt sich durch Veränderungen in den regionalen klimatischen Bedingungen wider: von warm-feuchten im frühen Karbon, zu warm-ariden im mittleren bis späten Karbon und schließlich zu gemäßigten-kalten Bedingungen im späten Perm. Solche Änderungen in Paläolatitude und Klima führten zu größeren Veränderungen im Sedimentationsstil, einschließlich Variationen in der Karbonatausfällungsart. Die obere paläozoische Sedimentfolge umfasst vier Hauptablagerungseinheiten, in chronologischer Reihenfolge, die Billefjorden-Gruppe, welche von siliziklastischen Ablagerungen in durch extensionale Tektonik gesteuerten Keilen dominiert wird, die Gipsdalen-Gruppe, die von Warmwasser-Karbonaten, „stacked buildups“ und Evaporiten dominiert wird, die Bjarmeland-Gruppe, von Kaltwasser-Karbonaten als auch durch die Anwesenheit von „buildup-networks“ charakterisiert, und die Tempelfjorden-Gruppe, die durch feinkörnige Sedimentation, dominiert durch biologische Produktion von Kieselsäure, gekennzeichnet. In der Loppa High war es durch die Integration einer Kernstudie mit einer Multi-Attribut Klassifizierung der seismischen Fazien möglich, die wichtigsten sedimentären Diskordanzen hervorzuheben und die räumliche Ausdehnung eines verborgenen Paläokarstsystems zu kartieren. Diese geologische Besonderheit soll sich während einer lang-anhaltenden Episode der subaerischen Exposition gebildet haben, die zwischen dem späten Paläozoikum und mittleren Trias auftrat. Basierend auf der Analyse seismischer Sequenzstratigraphie, wurde die Paläogeographie des Loppa High Beckens im Hinblick auf Zeit und Raum weiterhin umgebaut und eine neue und es wurde ein detaillierteres tektonisch-sedimentäres Modell für diesen Bereich vorgeschlagen. Im Bereich der Finnmark-Plattform konnte durch eine detaillierte Bohrkernanalyse zweier Explorationsbohrungen in Kombination mit seismischen 2D-Schlüssel-Sektionen, die sich entlang des Hauptablagerungsprofils befindet, Ablagerungsszenarien für die beiden wichtigsten lithologischen Einheiten bewertet werden: die Ørn Formation (Gipsdalen Gruppe) und die Isbjørn Formation (Bjarmeland-Gruppe). Im mittleren Sakmarian wurden zwei wichtige Änderungen zwischen den beiden Formationen beobachtet, einschließlich (1) der Veränderung in der Art der Karbotausfällungen, welche als Tiefen-abhängig beschrieben wird, und (2) die Veränderung der Plattformmorphologie, die sich von einer distal steilen Rampe zu einer homoklinalen Rampe entwickelte. Die Ergebnisse dieser Studie können dazu beitragen, zukünftige Reservoir-Charakterisierungen der Einheiten des oberen Paläozoikum in der Barentssee zu unterstützen, vor allem im Loppa High Halbgraben und dem Finmmark Plattformbereich. KW - Loppa High KW - seismische Sequenzstratigraphie KW - seismische Attribute KW - Finnmark Platform KW - Paläogeographie KW - Loppa High KW - seismic sequence stratigraphy KW - seismic attributes KW - Finnmark Platform KW - paleogeography Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72576 ER - TY - THES A1 - Sarkar, Saswati T1 - Holocene variations in the strength of the Indian Monsoon system T1 - Holozäne Schwankungen in der Stärke des Indischen Monsunsystems BT - a combined biomarker and stable isotope approach BT - ein kombinierter Ansatz mit Biomarkern und stabilen Isotopen N2 - The monsoon is an important component of the Earth’s climate system. It played a vital role in the development and sustenance of the largely agro-based economy in India. A better understanding of past variations in the Indian Summer Monsoon (ISM) is necessary to assess its nature under global warming scenarios. Instead, our knowledge of spatiotemporal patterns of past ISM strength, as inferred from proxy records, is limited due to the lack of high-resolution paleo-hydrological records from the core monsoon domain. In this thesis I aim to improve our understanding of Holocene ISM variability from the core ‘monsoon zone’ (CMZ) in India. To achieve this goal, I tried to understand modern and thereafter reconstruct Holocene monsoonal hydrology, by studying surface sediments and a high-resolution sedimentary record from the saline-alkaline Lonar crater lake, central India. My approach relies on analyzing stable carbon and hydrogen isotope ratios from sedimentary lipid biomarkers to track past hydrological changes. In order to evaluate the relationship of the modern ecosystem and hydrology of the lake I studied the distribution of lipid biomarkers in the modern ecosystem and compared it to lake surface sediments. The major plants from dry deciduous mixed forest type produced a greater amount of leaf wax n-alkanes and a greater fraction of n-C31 and n-C33 alkanes relative to n-C27 and n-C29. Relatively high average chain length (ACL) values (29.6–32.8) for these plants seem common for vegetation from an arid and warm climate. Additionally I found that human influence and subsequent nutrient supply result in increased lake primary productivity, leading to an unusually high concentration of tetrahymanol, a biomarker for salinity and water column stratification, in the nearshore sediments. Due to this inhomogeneous deposition of tetrahymanol in modern sediments, I hypothesize that lake level fluctuation may potentially affect aquatic lipid biomarker distributions in lacustrine sediments, in addition to source changes. I reconstructed centennial-scale hydrological variability associated with changes in the intensity of the ISM based on a record of leaf wax and aquatic biomarkers and their stable carbon (δ13C) and hydrogen (δD) isotopic composition from a 10 m long sediment core from the lake. I identified three main periods of distinct hydrology over the Holocene in central India. The period between 10.1 and 6 cal. ka BP was likely the wettest during the Holocene. Lower ACL index values (29.4 to 28.6) of leaf wax n-alkanes and their negative δ13C values (–34.8‰ to –27.8‰) indicated the dominance of woody C3 vegetation in the catchment, and negative δDwax (average for leaf wax n-alkanes) values (–171‰ to –147‰) argue for a wet period due to an intensified monsoon. After 6 cal. ka BP, a gradual shift to less negative δ13C values (particularly for the grass derived n-C31) and appearance of the triterpene lipid tetrahymanol, generally considered as a marker for salinity and water column stratification, marked the onset of drier conditions. At 5.1 cal. ka BP increasing flux of leaf wax n-alkanes along with the highest flux of tetrahymanol indicated proximity of the lakeshore to the center due to a major lake level decrease. Rapid fluctuations in abundance of both terrestrial and aquatic biomarkers between 4.8 and 4 cal. ka BP indicated an unstable lake ecosystem, culminating in a transition to arid conditions. A pronounced shift to less negative δ13C values, in particular for n-C31 (–25.2‰ to –22.8‰), over this period indicated a change of dominant vegetation to C4 grasses. Along with a 40‰ increase in leaf wax n-alkane δD values, which likely resulted from less rainfall and/or higher plant evapotranspiration, I interpret this period to reflect the driest conditions in the region during the last 10.1 ka. This transition led to protracted late Holocene arid conditions and the establishment of a permanently saline lake. This is supported by the high abundance of tetrahymanol. A late Holocene peak of cyanobacterial biomarker input at 1.3 cal. ka BP might represent an event of lake eutrophication, possibly due to human impact and the onset of cattle/livestock farming in the catchment. The most intriguing feature of the mid-Holocene driest period was the high amplitude and rapid fluctuations in δDwax values, probably due to a change in the moisture source and/or precipitation seasonality. I hypothesize that orbital induced weakening of the summer solar insolation and associated reorganization of the general atmospheric circulation were responsible for an unstable hydroclimate in the mid-Holocene in the CMZ. My findings shed light onto the sequence of changes during mean state changes of the monsoonal system, once an insolation driven threshold has been passed, and show that small changes in solar insolation can be associated to major environmental changes and large fluctuations in moisture source, a scenario that may be relevant with respect to future changes in the ISM system. N2 - Der Monsun ist ein wichtiger Bestandteil des Klimasystems der Erde. Er spielte in der Entwicklung und im Lebensunterhalt der weitgehend agrarisch geprägten Wirtschaft in Indien eine wesentliche Rolle. Ein besseres Verständnis von vergangenen Schwankungen im Indischen Sommermonsun (ISM) ist notwendig, um dessen Wesen unter dem Einfluss globaler Erwärmungsszenarien zu bewerten. Stattdessen ist unser Wissen über räumlich-zeitliche Muster der vergangenen ISM Intensität, wie sie aus Proxydaten abgeleitet wird, aufgrund des Mangels an hochauflösenden paläohydrologischen Datensätzen aus der Kernmonsunregion sehr eingeschränkt. In dieser Arbeit versuche ich unser Verständnis über die ISM Variabilität im Holozän in der Kernmonsunregion in Indien zu verbessern. Um dieses Ziel zu erreichen habe ich versucht, zunächst die rezente und danach die holozäne monsunale Hydrologie durch das Studium von Oberflächensedimenten und eines hochaufgelösten Sedimentkerns aus dem salzhaltigen-alkalischen Lonar Kratersee, Zentralindien zu verstehen. Mein Ansatz stützt sich auf der Analyse stabiler Wasserstoff- und Kohlenstoffisotopenverhältnisse von sedimentären Lipid Biomarkern, um vergangene hydrologische Veränderungen zu verfolgen. Um die Beziehung des modernen Ökosystems mit der Hydrologie des Sees zu bewerten, untersuchte ich die Verteilung von Lipid Biomarkern im rezenten Ökosystem und verglich sie mit den Oberflächensedimenten des Sees. Die bedeutendsten Pflanzen aus dem trockenen Laubmischwaldtyp erzeugten eine größere Menge an Blattwachs n-Alkanen und einen größeren Anteil von n-C31 und n-C33 Alkanen im Verhältnis zu n-C27 und n-C29. Die relativ hohen durchschnittlichen Werte der Kettenlängen (29.6–32.8) für diese Pflanzen scheinen für die Vegetation in einem ariden und warmen Klima weit verbreitet zu sein. Zusätzlich fand ich heraus, dass der menschliche Einfluss und eine nachfolgende Nährstoffzufuhr zu einer Erhöhung der Primärproduktion im See führen, die in einer ungewöhnlich hohen Konzentration von Tetrahymanol, einem Biomarker für Salzgehalt und Schichtung der Wassersäule, in den Sedimenten des Uferbereichs resultiert. Aufgrund dieser inhomogenen Ablagerung von Tetrahymanol in rezenten Sedimenten vermute ich, dass Seespiegelschwankungen möglicherweise aquatische Lipid Biomarker Verteilungen in limnischen Sedimenten, zusätzlich zu Änderungen in deren Herkunft, potentiell beeinflussen. Ich habe die hundertjährig-lange hydrologische Variabilität, die mit Veränderungen in der Intensität des ISM verbunden ist, auf der Basis von Blattwachs Lipid Biomarkern und ihrer stabilen Kohlenstoff- (δ13C) und Wasserstoffisotopenzusammensetzung (δD) ausgehend von einem 10 m langen Sedimentkern aus dem See rekonstruiert. Ich habe drei Hauptphasen von signifikanter Hydrologie im Holozän in Zentralindien identifiziert. Die Periode zwischen 10.1 und 6 cal. ka BP war wahrscheinlich die feuchteste während des Holozäns. Geringere durchschnittliche Kettenlängen Indexwerte (29.4 bis 28.6) von Blattwachs n-Alkanen und ihre negativen δ13C Werte (–34.8‰ bis –27.8‰) wiesen auf die Dominanz von holziger C3 Vegetation im Einzugsgebiet hin, und negative δDwax (Durchschnitt für Blattwachs n-Alkane) Werte (–171‰ bis –147‰) stehen für eine feuchte Periode in Verbindung mit einem verstärkten Monsun. Nach 6 cal. ka BP führte eine allmähliche Verschiebung zu weniger negativen δ13C Werten (insbesondere für Gras abgeleitete n-C31) und das Vorkommen von Triterpen Lipid Tetrahymanol, allgemein als Indikator für Salzgehalt und Wassersäulenstratifizierung verwendet, zum Beginn von trockeneren Bedingungen. Um 5.1 cal. ka BP deutete ein erhöhter Fluss von Blattwachs n-Alkanen in Zusammenhang mit dem höchsten Fluss von Tetrahymanol auf eine bedeutende Absenkung des Seeufers durch den Rückgang im Seespiegel. Rasche Schwankungen in der Menge von terrestrischen und aquatischen Biomarkern zwischen 4.8 und 4 cal. ka BP wiesen auf ein instabiles Seeökosystem hin, das in einem Übergang zu ariden Bedingungen kulminiert. Eine bedeutende Verschiebung zu weniger negativen δ13C Werten in dieser Periode, insbesondere für n-C31 (–25.2‰ bis –22.8‰), zeigte einen Wandel in der dominanten Vegetation hin zu C4 Gräsern. Zusammen mit einem 40‰ Anstieg in den δD Werten der Blattwachs n-Alkane, der wahrscheinlich von weniger Niederschlag und/oder höherer Evapotranspiration der Pflanzen ausgelöst wurde, interpretiere ich diese Periode als die trockenste der letzten 10.1 ka. Dieser Übergang führte zu lang anhaltenden spätholozänen ariden Bedingungen und zur Ausbildung eines dauerhaften salzhaltigen Sees. Dies wird durch ein hohes Vorkommen von Tetrahymanol unterstützt. Ein spätholozäner Höchstwert in der Zufuhr blaualgenhaltiger Biomarker um 1.3 cal. ka BP könnte ein Ereignis der Eutrophierung des Sees darstellen, wahrscheinlich in Verbindung mit dem menschlichen Einfluss und dem Beginn der Rinder- und Viehzucht im Einzugsgebiet. Die faszinierendsten Merkmale der trockensten Periode im mittleren Holozän waren die hohe Amplitude und rasche Fluktuationen in den δDwax Werten, wahrscheinlich in Verbindung mit einer Veränderung in der Herkunft der Feuchtigkeit und/oder Saisonalität im Niederschlag. Ich vermute, dass eine orbital induzierte Abschwächung der sommerlichen Solarstrahlung und eine damit verbundene Umstellung der allgemeinen atmosphärischen Zirkulation für ein instabiles Hydroklima im mittleren Holozän in der Kernmonsunregion verantwortlich waren. Meine Ergebnisse liefern den Aufschluss über die Abfolge von Veränderungen während der mittleren Zustandsänderungen des Monsunsystems, sobald ein einstrahlungsgetriebener Schwellenwert überschritten ist, und sie zeigen, dass kleine Änderungen in der solaren Einstrahlung mit markanten Umweltveränderungen und großen Schwankungen in der Herkunft der Feuchtigkeit einhergehen, ein Szenario, das in Bezug zu zukünftigen Veränderungen des ISM Systems relevant sein könnte. KW - Indian Monsoon KW - indischer Monsun KW - holocene KW - Holozän Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74905 ER -