TY - THES A1 - Doriti, Afroditi T1 - Sustainable bio-based poly-N-glycines and polyesters T1 - Nachhaltige biobasierte Poly-N-Glycine und Polyester N2 - Nowadays, the need to protect the environment becomes more urgent than ever. In the field of chemistry, this translates to practices such as waste prevention, use of renewable feedstocks, and catalysis; concepts based on the principles of green chemistry. Polymers are an important product in the chemical industry and are also in the focus of these changes. In this thesis, more sustainable approaches to make two classes of polymers, polypeptoids and polyesters, are described. Polypeptoids or poly(alkyl-N-glycines) are isomers of polypeptides and are biocompatible, as well as degradable under biologically relevant conditions. In addition to that, they can have interesting properties such as lower critical solution temperature (LCST) behavior. They are usually synthesized by the ring opening polymerization (ROP) of N-carboxy anhydrides (NCAs), which are produced with the use of toxic compounds (e.g. phosgene) and which are highly sensitive to humidity. In order to avoid the direct synthesis and isolation of the NCAs, N-phenoxycarbonyl-protected N-substituted glycines are prepared, which can yield the NCAs in situ. The conditions for the NCA synthesis and its direct polymerization are investigated and optimized for the simplest N-substituted glycine, sarcosine. The use of a tertiary amine in less than stoichiometric amounts compared to the N-phenoxycarbonyl--sarcosine seems to accelerate drastically the NCA formation and does not affect the efficiency of the polymerization. In fact, well defined polysarcosines that comply to the monomer to initiator ratio can be produced by this method. This approach was also applied to other N-substituted glycines. Dihydroxyacetone is a sustainable diol produced from glycerol, and has already been used for the synthesis of polycarbonates. Here, it was used as a comonomer for the synthesis of polyesters. However, the polymerization of dihydroxyacetone presented difficulties, probably due to the insolubility of the macromolecular chains. To circumvent the problem, the dimethyl acetal protected dihydroxyacetone was polymerized with terephthaloyl chloride to yield a soluble polymer. When the carbonyl was recovered after deprotection, the product was insoluble in all solvents, showing that the carbonyl in the main chain hinders the dissolution of the polymers. The solubility issue can be avoided, when a 1:1 mixture of dihydroxyacetone/ ethylene glycol is used to yield a soluble copolyester. N2 - Heutzutage wird die Notwendigkeit, die Umwelt zu schützen, dringender denn je. Auf dem Gebiet der Chemie bedeutet dies Praktiken wie Abfallvermeidung, Verwendung nachwachsender Rohstoffe und Katalyse, Konzepte, die auf den Prinzipien der grünen Chemie basierend sind. Polymere sind ein wichtiges Produkt in der chemischen Industrie und stehen auch im Fokus dieser Veränderungen. In dieser Arbeit werden nachhaltigere Ansätze zur Herstellung von zwei Klassen von Polymeren, Polypeptoiden und Polyestern beschrieben. Polypeptoide oder Poly (alkyl-N-glycine) sind Isomere von Polypeptiden und sind biokompatibel sowie unter biologisch relevanten Bedingungen abbaubar. Darüber hinaus können sie interessante Eigenschaften wie das LCST-Verhalten (Lower Critical Solution Temperature) aufweisen. Sie werden üblicherweise durch die Ringöffnungspolymerisation (ROP) von N-Carboxyanhydriden (NCAs) synthetisiert, die unter Verwendung von toxischen Verbindungen (z. B. Phosgen) hergestellt werden und die gegenüber Feuchtigkeit sehr empfindlich sind. Um die direkte Synthese und Isolierung der NCAs zu vermeiden, werden N-Phenoxycarbonyl-geschützte N-substituierte Glycine hergestellt, die die NCAs in situ liefern können. Die Bedingungen für die NCA-Synthese und ihre direkte Polymerisation wurden für das einfachste N-substituierte Glycin, Sarcosin, untersucht und optimiert. Die Verwendung eines tertiären Amins in weniger als stöchiometrischen Mengen im Vergleich zum N-Phenoxycarbonyl-Sarkosin scheint die NCA-Bildung drastisch zu beschleunigen und beeinflusst die Effizienz der Polymerisation nicht. In der Tat können mit diesem Verfahren gut definierte Polysarkosine hergestellt werden, die dem Verhältnis von Monomer zu Initiator entsprechen. Dieser Ansatz wurde auch auf andere N-substituierte Glycine angewendet. Dihydroxyaceton ist ein aus Glycerin hergestelltes, nachhaltiges Diol, das bereits für die Synthese von Polycarbonaten verwendet wurde. Hier wurde es als Comonomer für die Synthese von Polyestern verwendet. Die Polymerisation von Dihydroxyaceton zeigte jedoch Schwierigkeiten, wahrscheinlich aufgrund der Unlöslichkeit der makromolekularen Ketten. Um das Problem zu umgehen, wurde das Dimethylacetal-geschützte Dihydroxyaceton mit Terephthaloylchlorid polymerisiert, um ein lösliches Polymer zu ergeben. Wenn das Carbonyl nach der Entschützung zurückgewonnen wurde, war das Produkt in allen Lösungsmitteln unlöslich, was zeigt, dass das Carbonyl in der Hauptkette das Lösen der Polymere behindert. Das Löslichkeitsproblem kann vermieden werden, wenn eine 1: 1-Mischung von Dihydroxyaceton / Ethylenglycol verwendet wird, um einen löslichen Copolyester zu ergeben. KW - ROP KW - N-alkyl-glycine KW - polypeptoids KW - activated urethane KW - dihydroxyacetone KW - polycondensation KW - polyesters KW - Ringöffnungspolymerisation KW - N-Alkylglycin KW - Polypeptoide KW - aktiviertes Urethan KW - Dihydroxyaceton KW - Polykondensation KW - Polyester Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411286 ER - TY - THES A1 - Dribbisch, Katrin T1 - Translating innovation T1 - Translating Innovation BT - the adoption of Design Thinking in a Singaporean ministry BT - die Adoption von Design Thinking in einem Singapurer Ministerium N2 - This doctoral thesis studies the process of innovation adoption in public administrations, addressing the research question of how an innovation is translated to a local context. The study empirically explores Design Thinking as a new problem-solving approach introduced by a federal government organisation in Singapore. With a focus on user-centeredness, collaboration and iteration Design Thinking seems to offer a new way to engage recipients and other stakeholders of public services as well as to re-think the policy design process from a user’s point of view. Pioneered in the private sector, early adopters of the methodology include civil services in Australia, Denmark, the United Kingdom, the United States as well as Singapore. Hitherto, there is not much evidence on how and for which purposes Design Thinking is used in the public sector. For the purpose of this study, innovation adoption is framed in an institutionalist perspective addressing how concepts are translated to local contexts. The study rejects simplistic views of the innovation adoption process, in which an idea diffuses to another setting without adaptation. The translation perspective is fruitful because it captures the multidimensionality and ‘messiness’ of innovation adoption. More specifically, the overall research question addressed in this study is: How has Design Thinking been translated to the local context of the public sector organisation under investigation? And from a theoretical point of view: What can we learn from translation theory about innovation adoption processes? Moreover, there are only few empirical studies of organisations adopting Design Thinking and most of them focus on private organisations. We know very little about how Design Thinking is embedded in public sector organisations. This study therefore provides further empirical evidence of how Design Thinking is used in a public sector organisation, especially with regards to its application to policy work which has so far been under-researched. An exploratory single case study approach was chosen to provide an in-depth analysis of the innovation adoption process. Based on a purposive, theory-driven sampling approach, a Singaporean Ministry was selected because it represented an organisational setting in which Design Thinking had been embedded for several years, making it a relevant case with regard to the research question. Following a qualitative research design, 28 semi-structured interviews (45-100 minutes) with employees and managers were conducted. The interview data was triangulated with observations and documents, collected during a field research research stay in Singapore. The empirical study of innovation adoption in a single organisation focused on the intra-organisational perspective, with the aim to capture the variations of translation that occur during the adoption process. In so doing, this study opened the black box often assumed in implementation studies. Second, this research advances translation studies not only by showing variance, but also by deriving explanatory factors. The main differences in the translation of Design Thinking occurred between service delivery and policy divisions, as well as between the first adopter and the rest of the organisation. For the intra-organisational translation of Design Thinking in the Singaporean Ministry the following five factors played a role: task type, mode of adoption, type of expertise, sequence of adoption, and the adoption of similar practices. N2 - Die Dissertation untersucht den Prozess der Innovationsadoption in Verwaltungen, ausgehend von der Forschungsfrage, wie eine Innovation in den lokalen Kontext einer Organisation übersetzt wird. Empirisch untersucht die Arbeit, wie Design Thinking als neuer Problemlösungsansatz von einem Singapurer Ministerium eingeführt wurde. Mit einer am Nutzer orientierten, kollaborativen und iterativen Arbeitsweise verspricht Design Thinking eine neue Möglichkeit, Leistungsempfänger/innen und andere Stakeholder öffentlicher Dienstleistungen einzubinden sowie den Gesetzgebungsprozess ausgehend von der Nutzerperspektive neu zu gestalten. Dieser zunächst in Unternehmen eingeführte Innovationsansatz wurde in den vergangenen Jahren verstärkt von Verwaltungen weltweit aufgegriffen, zum Beispiel in Australien, Dänemark, Großbritannien, den USA und Singapur. Es existieren jedoch bisher nur wenige empirische Studien darüber, wie und für welche Zwecke Design Thinking im Verwaltungskontext zum Einsatz kommt. Die vorliegende Arbeit wählt eine Translationsperspektive zur Analyse des Innovation-Adoption-Prozesses. Der Translationsansatz im Sinne des skandinavischen Neo-Institutionalismus untersucht, wie Ideen in lokale Kontexte übersetzt werden. Die Studie grenzt sich damit von einem vereinfachten Verständnis des Innovation-Adoption-Prozesses ab und somit von der Vorstellung, dass eine Idee ohne Anpassung in einen neuen Kontext aufgenommen wird. Die Translationstheorie ermöglicht eine differenzierte Betrachtung des Innovation-Adoption-Prozesses, indem sie den Blick auf die Anpassungen und Veränderungen richtet. Die zentralen Forschungsfragen der Studie lauten: Erstens, wie wurde Design Thinking in den lokalen Kontext eines Singapurer Ministeriums übersetzt? Zweitens, was können wir von einem Translation-Theorieansatz über Innovation-Adoption-Prozesse lernen? Es gibt bisher wenige empirische Studien zur organisationalen Adoption von Design Thinking, von denen die meisten sich auf Unternehmen beziehen. Wir wissen wenig darüber, wie Design Thinking in öffentlichen Verwaltungen und Regierungsorganisationen eingebettet wird. Diese Untersuchung liefert deshalb empirische Evidenz, wie Design Thinking in einer öffentlichen Verwaltung eingesetzt wird, insbesondere in Bezug auf die Anwendung im Gesetzgebungsbereich, der in der bisherigen Forschung vernachlässigt wurde. Für die Analyse des Innovation-Adoption-Prozesses wurde ein exploratives Einzelfallstudiendesign gewählt. Basierend auf einem theoriegeleiteten Sampling-Ansatz wurde ein Singapurer Ministerium ausgewählt, das einen Organisationskontext bot, in dem Design Thinking vor einigen Jahren eingeführt und seitdem praktiziert wurde. Das Singapurer Ministerium stellt damit einen relevanten Fall für die Beantwortung der Forschungsfrage dar. Im Rahmen eines qualitativen Forschungsdesigns, wurden 28 semi-strukturierte Interviews (45 bis 100 Minuten) mit Mitarbeiter/innen und Führungskräften durchgeführt. Die Interviewdaten wurden mit Beobachtungen und Dokumenten trianguliert, die während eines mehrwöchigen Forschungsaufenthaltes in Singapur gesammelt wurden. Die empirische Untersuchung der Innovationsadoption in einer Einzelorganisation konzentriert sich auf eine intraorganisatorische Perspektive mit dem Ziel, die Variationen der Translation während des Adoptionsprozesses festzuhalten. Die Studie leistet damit einen Beitrag zur Öffnung der oft in Implementierungsstudien angenommenen Blackbox, weil sie den Blick darauf richtet, was nach der Einführungsentscheidung in der Organisation mit der Innovation geschieht. Zweitens, erweitert die vorliegende Studie die Translationsforschung, weil sie intraorganisatorische Varianz der Übersetzung nicht nur nachweisen, sondern auch erklären kann. Aus dem empirischen Material werden fünf Einflussfaktoren identifiziert, die die Unterschiede in der Übersetzung von Design Thinking innerhalb des Singapurer Ministeriums erklären können: 1) die Art der Aufgabe, 2) der Adoptionsmodus, 3) die Art der Expertise, 4) die zeitliche Abfolge der Adoption und 5) die Integration in die Organisation durch die Kombination mit komplementären Praktiken. Die Hauptunterschiede traten zwischen Service-Delivery- und Policy-Abteilungen auf sowie zwischen der der Abteilung, die Design Thinking zuerst einführte, und dem Rest der Organisation. KW - Design Thinking KW - innovation adoption KW - translation theory KW - public sector innovation KW - public management KW - Design Thinking KW - Innovation KW - Verwaltungsmodernisierung KW - Organizational innovation KW - Neo-institutionalismus Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104719 ER - TY - THES A1 - Eichler, Sarah T1 - Multidisziplinäre kardiologische Rehabilitation bei Patienten nach kathetergestützter Aortenklappenkorrektur T1 - Multicomponent cardiac rehabilitation in patients after transcatheter aortic valve implantation BT - Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität BT - predictors of functional and psychocognitive recovery N2 - Hintergrund Für Patienten mit hochgradiger Aortenklappenstenose, die aufgrund ihres Alters oder ihrer Multimorbidität ein hohes Operationsrisiko tragen, konnte mit der kathetergestützten Aortenklappenkorrektur (transcatheter aortic valve implantation, TAVI) eine vielversprechende Alternative zum herzchirurgischen Eingriff etabliert werden. Explizite Daten zur multidisziplinären kardiologischen Rehabilitation nach TAVI liegen bislang nicht vor. Ziel vorliegender Arbeit war, den Effekt der kardiologischen Rehabilitation auf die körperliche Leistungsfähigkeit, den emotionalen Status, die Lebensqualität und die Gebrechlichkeit bei Patienten nach TAVI zu untersuchen sowie Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und der Lebensqualität zu identifizieren. Methodik Zwischen 10/2013 und 07/2015 wurden 136 Patienten (80,6 ± 5,0 Jahre, 47,8 % Männer) in Anschlussheilbehandlung nach TAVI in drei kardiologischen Rehabilitationskliniken eingeschlossen. Zur Beurteilung des Effekts der kardiologischen Rehabilitation wurden jeweils zu Beginn und Ende der Rehabilitation der Frailty (Gebrechlichkeits)-Index (Score bestehend aus Barthel-Index, Instrumental Activities of Daily Living, Mini Mental State Exam, Mini Nutritional Assessment, Timed Up and Go und subjektiver Mobilitätsverschlechterung), die Lebensqualität im Short-Form 12 (SF-12) sowie die funktionale körperliche Leistungsfähigkeit im 6-Minuten Gehtest (6-minute walk test, 6MWT) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie erhoben. Zusätzlich wurden soziodemographische Daten (z. B. Alter und Geschlecht), Komorbiditäten (z. B. chronisch obstruktive Lungenerkrankung, koronare Herzkrankheit und Karzinom), kardiovaskuläre Risikofaktoren und die NYHA-Klasse dokumentiert. Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität wurden mit Kovarianzanalysen angepasst. Ergebnisse Die maximale Gehstrecke im 6MWT konnte um 56,3 ± 65,3 m (p < 0,001) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie um 8,0 ± 14,9 Watt (p < 0001) gesteigert werden. Weiterhin konnte eine Verbesserung im SF-12 sowohl in der körperlichen Summenskala um 2,5 ± 8,7 Punkte (p = 0,001) als auch in der psychischen Summenskala um 3,4 ± 10,2 Punkte (p = 0,003) erreicht werden. In der multivariaten Analyse waren ein höheres Alter und eine höhere Bildung signifikant mit einer geringeren Zunahme im 6MWT assoziiert, währenddessen eine bessere kognitive Leistungsfähigkeit und Adipositas einen positiven prädiktiven Wert aufwiesen. Eine höhere Selbstständigkeit und ein besserer Ernährungsstatus beeinflussten die Veränderung in der körperlichen Summenskala des SF-12 positiv, währenddessen eine bessere kognitive Leistungsfähigkeit einen Prädiktor für eine geringere Veränderung darstellte. Des Weiteren hatten die jeweiligen Ausgangswerte der körperlichen und psychischen Summenskala im SF-12 einen inversen Einfluss auf die Veränderungen in der gleichen Skala. Schlussfolgerung Eine multidisziplinäre kardiologische Rehabilitation kann sowohl die körperliche Leistungs-fähigkeit und Lebensqualität verbessern als auch die Gebrechlichkeit von Patienten nach kathetergestützter Aortenklappenkorrektur verringern. Daraus resultierend gilt es, spezifische Assessments für die kardiologische Rehabilitation zu entwickeln. Weiterhin ist es notwendig, individualisierte Therapieprogramme mit besonderem Augenmerk auf kognitive Funktionen und Ernährung zu initiieren, um die Selbstständigkeit hochbetagter Patienten zu erhalten bzw. wiederherzustellen und um die Pflegebedürftigkeit der Patienten hinauszuzögern. N2 - Background In the last decade, transcatheter aortic valve implantation (TAVI) has reached widespread clinical acceptance as treatment for elderly and high-risk patients with aortic stenosis. Little is known about influencing factors of function and quality of life during multicomponent cardi-ac rehabilitation. The aim of the underlying study was to investigate the impact of a multidis-ciplinary inpatient cardiac rehabilitation on function and frailty as well as to find predictors for changes in quality of life and physical capacity. Methods From 10/2013 to 07/2015, patients with an elective TAVI and a subsequent inpatient cardiac rehabilitation were enrolled in the prospective cohort multicentre study. A Frailty-Index (a score including Activities of Daily Living, Instrumental Activities of Daily Living, Mini Men-tal State Exam, Mini Nutritional Assessment, Timed Up and Go und subjective mobility disa-bility), quality of life by Short Form-12 (SF-12), function by 6-minute walk distance (6MWD) and by maximum work load in bicycle ergometry were performed at admission and discharge of cardiac rehabilitation. Additionally, sociodemographic parameters (e. g. age, sex), comorbidities (e. g. chronic obstructive pulmonary disease, coronary artery disease), cardiovascular risk factors and NYHA-class were documented. Predictors for changes in 6MWD and SF-12 were studied using analysis of covariance. Results 136 patients (80.6 ± 5.0 years, 47.8 % male) were enrolled. 6MWD and maximum work load increased by 56.3 ± 65.3 m (p < 0.001) and 8.0 ± 14.9 Watts (p < 0.001), respectively. An improvement in SF-12 (physical component scale 2.5 ± 8.7, p = 0.001, mental component scale 3.4 ± 10.2, p = 0.003) could be observed. In the multivariate analysis, age and a higher education were significantly associated with a reduced 6MWD, whereas cognition and obesity showed a positive predictive value. Nutrition and autonomy positively influenced the physical scale of SF-12, whereas a better cognitive performance negatively influenced it. Additionally, the baseline values of SF-12 had an inverse impact on the change during cardiac rehabilitation. Conclusions Cardiac rehabilitation can improve functional capacity as well as quality of life and reduce frailty in patients after TAVI. This results in a reevaluation of diagnostic modalities, prognostic parameters and an individualised definition of achievable goals in the contemporary TAVI population during the recovery phase at cardiac rehabilitation. An individually tailored therapy with special consideration of cognition and nutrition is needed to maintain autonomy and empower octogenarians in coping with challenges of everyday life. KW - TAVI KW - Gebrechlichkeit KW - kardiologische Rehabilitation KW - Lebensqualität KW - körperliche Leistungsfähigkeit KW - TAVI KW - frailty KW - cardiac rehabilitation KW - quality of life KW - exercise capacity Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406618 ER - TY - THES A1 - Eisold, Ursula T1 - Cumarin- und DBD-Farbstoffe als Fluoreszenzsonden T1 - Coumarin and dbd dyes as fluorescent probes BT - Fluoreszenzimmunassays und Förster-Resonanz-Energietransfer BT - fluorescence immunoassays and Foerster resonance energy transfer N2 - In dieser Arbeit werden drei Themen im Zusammenhang mit den spektroskopischen Eigenschaften von Cumarin- (Cou) und DBD-Farbstoffen ([1,3]Dioxolo[4,5-f][1,3]benzodioxol) behandelt. Der erste Teil zeigt die grundlegende spektroskopische Charakterisierung von 7-Aminocumarinen und ihre potentielle Anwendung als Fluoreszenzsonde für Fluoreszenzimmunassays. Im zweiten Teil werden mit die photophysikalischen Eigenschaften der Cumarine genutzt um Cou- und DBD-funktionalisierte Oligo-Spiro-Ketal-Stäbe (OSTK) und ihre Eigenschaften als Membransonden zu untersuchen. Der letzte Teil beschäftigt sich mit der Synthese und der Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen als Referenzsysteme für schwefelfunktionalisierte OSTK-Stäbe und ihrer Kopplung an Goldnanopartikel. Immunochemische Analysemethoden sind in der klinischen Diagnostik sehr erfolgreich und werden heute auch für die Nahrungsmittelkontrolle und Überwachung von Umweltfragen mit einbezogen. Dadurch sind sie von großem Interesse für weitere Forschungen. Unter den verschiedenen Immunassays zeichnen sich lumineszenzbasierte Formate durch ihre herausragende Sensitivität aus, die dieses Format für zukünftige Anwendungen besonders attraktiv macht. Die Notwendigkeit von Multiparameterdetektionsmöglichkeiten erfordert einen Werkzeugkasten mit Farbstoffen, um die biochemische Reaktion in ein optisch detektierbares Signal umzuwandeln. Hier wird bei einem Multiparameteransatz jeder Analyt durch einen anderen Farbstoff mit einer einzigartigen Emissionsfarbe, die den blauen bis roten Spektralbereich abdecken, oder eine einzigartige Abklingzeit detektiert. Im Falle eines kompetitiven Immunassayformats wäre für jeden der verschiedenen Farbstoffe ein einzelner Antikörper erforderlich. In der vorliegenden Arbeit wird ein leicht modifizierter Ansatz unter Verwendung einer Cumarineinheit, gegen die hochspezifische monoklonale Antikörper (mAb) erzeugt wurden, als grundlegendes Antigen präsentiert. Durch eine Modifikation der Stammcumarineinheit an einer Position des Moleküls, die für die Erkennung durch den Antikörper nicht relevant ist, kann auf den vollen Spektralbereich von blau bis tiefrot zugegriffen werden. In dieser Arbeit wird die photophysikalische Charakterisierung der verschiedenen Cumarinderivate und ihrer entsprechenden Immunkomplexe mit zwei verschiedenen, aber dennoch hochspezifischen, Antikörpern präsentiert. Die Cumarinfarbstoffe und ihre Immunkomplexe wurden durch stationäre und zeitaufgelöste Absorptions- sowie Fluoreszenzemissionsspektroskopie charakterisiert. Darüber hinaus wurden Fluoreszenzdepolarisationsmessungen durchgeführt, um die Daten zu vervollständigen, die die verschiedenen Bindungsmodi der beiden Antikörper betonten. Im Gegensatz zu häufig eingesetzten Nachweissystemen wurde eine massive Fluoreszenzverstärkung bei der Bildung des Antikörper-Farbstoffkomplexes bis zu einem Faktor von 50 gefunden. Wegen der leichten Emissionsfarbenänderung durch das Anpassen der Cumarinsubstitution in der für die Antigenbindung nicht relevanten Position des Elternmoleküls, ist eine Farbstoff-Toolbox vorhanden, die bei der Konstruktion von kompetitiven Multiparameterfluoreszenzverstärkungsimmunassays verwendet werden kann. Oligo-Spiro-Thio-Ketal-Stäbe werden aufgrund ihres hydrophoben Rückgrats leicht in Doppellipidschichten eingebaut und deshalb als optische Membransonde verwendet. Wegen ihres geringen Durchmessers wird nur eine minimale Störung der Doppellipidschicht verursacht. Durch die Markierung mit Fluoreszenzfarbstoffen sind neuartige Förster-Resonanz-Energietransfersonden mit hoch definierten relativen Orientierungen der Übergangsdipolmomente der Donor- und Akzeptorfarbstoffe zugänglich und macht die Klasse der OSTK-Sonden zu einem leistungsstarken, flexiblen Werkzeugkasten für optische Biosensoranwendungen. Mit Hilfe von stationären und zeitaufgelösten Fluoreszenzexperimenten wurde der Einbau von Cumarin- und DBD markierten OSTK-Stäben in großen unilamellaren Vesikeln untersucht und die Ergebnisse durch Fluoreszenzdepolarisationsmessungen untermauert. Der letzte Teil dieser Arbeit beschäftigt sich mit der Synthese und Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen und ihrer Kopplung an Goldnanopartikel. Die farbstoffmarkierten Polyproline konnten erfolgreich hergestellt werden. Es zeigten sich deutlich Einflüsse auf die spektroskopischen Eigenschaften der Farbstoffe durch die Bindung an die Polyprolinhelix. Die Kopplung an die 5 nm großen AuNP konnte erfolgreich durchgeführt werden. Die Erfahrungen, die durch die Kopplung der Polyproline an die AuNP, gewonnen wurde, ist die Basis für eine Einzelmolekül-AFM-FRET-Nanoskopie mit OSTK-Stäben. N2 - In this thesis, three topics are discussed in connection with the spectroscopic properties of coumarin (Cou) and DBD ([1,3]dioxolo[4,5-f][1,3]benzodioxole) dyes. The first part shows the basic spectroscopic characterization of 7-aminocumarins and their advantage as a fluorescence probe for fluorescence immunoassays. In the second part, the photophysical properties of the coumarins are used to investigate Cou- and DBD-functionalized oligo-spiro-ketal rods (OSTK) and their properties as membrane probes. The last part deals with the synthesis and characterization of Cou- and DBD-functionalized polyprolines as reference systems for sulfur-functionalized OSTK rods and their coupling to gold nanoparticles. The fact that immunochemical analysis methods are very successful in clinical diagnostics and are now also included for food control and monitoring of environmental questions they are of great interest for further research. Among the various immunoassays, luminescence-based formats are distinguished by their outstanding sensitivity, which makes this format particularly attractive for future applications. The need for multiparameter detection capabilities requires a toolbox of dyes to convert the biochemical response to an optically detectable signal. Here, in the case of a multiparameter approach, each analyte is detected by another dye with a unique emission color which covers the blue to red spectral range or a unique decay time. In the case of a competitive immunoassay format, a single antibody would be required for each of the different dyes. In the present work, a slightly modified approach is presented as a basic antigen using a coumarin moiety against which highly specific antibodies have been produced. By modifying the parent coumarin moiety at a site of the molecule which is not relevant for recognition by the antibody, the full spectral range from blue to deep red can be accessed. This work presents the photophysical characterization of the different cumarine derivatives and their corresponding immuno complexes with two different but nevertheless highly specific monoclonal antibodies (mAb). The coumarin dyes and their immunocomplexes were characterized by steady-state time-resolved absorption and fluorescence emission spectroscopy. In addition, fluorescence depolarization measurements were performed to complete the data emphasizing the different binding modes of the two antibodies. In contrast to frequently used detection systems, a massive fluorescence enhancement was found in the formation of the antibody dye complex up to a factor of 50. Because of the slight change in the emission by adjusting the coumarin substitution in the position of the parent molecule which is not relevant for the antigen binding, a dye toolbox which can be used for the construction of competitive multiparameter fluorescence enhancement immunoassays has been created. Due to their hydrophobic backbone, oligospirothioketal rods (OSTK) are easily incorporated into lipid bilayers and are therefore used as an optical membrane probe. Because of their narrow diameter, only a minimal disturbance of the lipid bilayer is caused. By labeling with fluorescent dyes, novel Förster resonance energy transfer probes are available with highly defined relative orientations of the transition dipole moments of the donor and acceptor dyes, making the class of the OSTK probes into a powerful, flexible toolbox for optical biosensor applications. The incorporation of cumarin and [1,3]-dioxolo[4,5-f][1,3]benzodioxol-labeled OSTK rods in large unilamellar vesicles was investigated using steady-state and time-resolved fluorescence experiments and the results were confirmed by fluorescence depolarization measurements. The last part of this work deals with the synthesis and characterization of Cou- and DBD-functionalized polyprolines and their coupling to gold nanoparticles. The dye-labeled polyprolines were successfully synthesized. Influences on the spectroscopic properties of the dyes by binding to the polyproline helix were found. The coupling to 5 nm AuNP was successfully carried out. The experience gained by the coupling of the polyprolins to the AuNP can be used as a good basis for the investigation of a single molecule FRET AFM nanoscopy using OSTK rods. KW - FRET KW - Förster-Resonanz-Energie-Transfer KW - Förster resonance energy transfer KW - Origo-Spiro-Thio-Ketal-Stäbe KW - oligo spiro thio ketal rods KW - FRET Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405833 ER - TY - THES A1 - Fischbach, Jens T1 - Isothermale Amplifikationsmethoden für den DNA- und Pyrophosphat-abhängigen Pathogennachweis T1 - Isothermal amplification methods for DNA- and pyrophophate based pathogen detection N2 - Hintergrund: Etablierte Protein- und Nukleinsäure-basierte Methoden für den spezifischen Pathogennachweis sind nur unter standardisierten Laborbedingungen von geschultem Personal durchführbar und daher mit einem hohen Zeit- und Kostenaufwand verbunden. In der Nukleinsäure-basierten Diagnostik kann durch die Einführung der isothermalen Amplifikation eine schnelle und kostengünstige Alternative zur Polymerase-Kettenreaktion (PCR) verwendet werden. Die Loop-mediated isothermal amplification (LAMP) bietet aufgrund der hohen Amplifikationseffizienz vielfältige Detektionsmöglichkeiten, die sowohl für Schnelltest- als auch für Monitoring-Anwendungen geeignet sind. Ein wesentliches Ziel dieser Arbeit war die Verbesserung der Anwendbarkeit der LAMP und die Entwicklung einer neuen Methode für den einfachen, schnellen und günstigen Nachweis von Pathogenen mittels alternativer DNA- oder Pyrophosphat-abhängiger Detektionsverfahren. Hier wurden zunächst direkte und indirekte Detektionsmethoden untersucht und darauf aufbauend ein Verfahren entwickelt, mit dem neue Metallionen-abhängige Fluoreszenzfarbstoffe für die selektive Detektion von Pyrophosphat in der LAMP und anderen enzymatischen Reaktionen identifiziert werden können. Als Alternative für die DNA-basierte Detektion in der digitalen LAMP sollten die zuvor etablierten Farbstoffe für den Pyrophosphatnachweis in einer Emulsion getestet werden. Abschließend wurde ein neuer Reaktionsmechanismus für die effiziente Generierung hochmolekularer DNA unter isothermalen Bedingungen als Alternative zur LAMP entwickelt. Ergebnisse: Für den Nachweis RNA- und DNA-basierter Phythopathogene konnte die Echtzeit- und Endpunktdetektion mit verschiedenen Farbstoffen in einem geschlossenen System etabliert werden. Hier wurde Berberin als DNA-interkalierender Fluoreszenzfarbstoff mit vergleichbarer Sensitivität zu SYBR Green und EvaGreen erfolgreich in der LAMP mit Echtzeitdetektion eingesetzt. Ein Vorteil von Berberin gegenüber den anderen Farbstoffen ist die Toleranz der DNA-Polymerase auch bei hohen Farbstoffkonzentrationen. Berberin kann daher auch in der geschlossenen LAMP-Reaktion ohne zusätzliche Anpassung der Reaktionsbedingungen für die Endpunktdetektion verwendet werden. Darüber hinaus konnte Hydroxynaphtholblau (HNB), das für den kolorimetrischen Endpunktnachweis bekannt ist, erstmals auch für die fluorimetrische Detektion der LAMP in Echtzeit eingesetzt werden. Zusätzlich konnten in der Arbeit weitere Metallionen-abhängige Farbstoffe zur indirekten Detektion der LAMP über das Pyrophosphat identifiziert werden. Dafür wurde eine iterative Methode entwickelt, mit der potenzielle Farbstoffe hinsichtlich ihrer Enzymkompatibilität und ihrer spektralen Eigenschaften bei An- oder Abwesenheit von Manganionen selektiert werden können. Mithilfe eines kombinatorischen Screenings im Mikrotiterplattenformat konnte die komplexe Konzentrationsabhängigkeit zwischen den einzelnen Komponenten für einen fluorimetrischen Verdrängungsnachweis untersucht werden. Durch die Visualisierung des Signal-Rausch-Verhältnis’ als Intensitätsmatrix (heatmap) konnten zunächst Alizarinrot S und Tetrazyklin unter simulierten Reaktionsbedingungen selektiert werden. In der anschließenden enzymatischen LAMP-Reaktion konnte insbesondere Alizarinrot S als günstiger, nicht-toxischer und robuster Fluoreszenzfarbstoff identifiziert werden und zeigte eine Pyrophosphat-abhängige Zunahme der Fluoreszenzintensität. Die zuvor etablierten Farbstoffe (HNB, Calcein und Alizarinrot S) konnten anschließend erfolgreich für die indirekte, fluorimetrische Detektion von Pyrophosphat in einer LAMP-optimierten Emulsion eingesetzt werden. Die Stabilität und Homogenität der generierten Emulsion wurde durch den Zusatz des Emulgators Poloxamer 188 verbessert. Durch die fluoreszenzmikroskopische Analyse der Emulsion war eine eindeutige Diskriminierung der positiven und negativen Tröpfchen vor allem bei Einsatz von Calcein und Alizarinrot S möglich. Aufgrund des komplexen Primer-Designs und der hohen Wahrscheinlichkeit unspezifischer Amplifikation in der LAMP wurde eine neue Bst DNA-Polymerase-abhängige isothermale Amplifikationsreaktion entwickelt. Durch die Integration einer spezifischen Linkerstruktur (abasische Stelle oder Hexaethylenglykol) zwischen zwei Primersequenzen konnte ein bifunktioneller Primer die effiziente Regenerierung der Primerbindungsstellen gewährleisten. Der neue Primer induziert nach der spezifischen Hybridisierung auf dem Templat die Rückfaltung zu einer Haarnadelstruktur und blockiert gleichzeitig die Polymeraseaktivität am Gegenstrang, wodurch eine autozyklische Amplifikation trotz konstanter Reaktionstemperatur möglich ist. Die Effizienz der „Hinge-initiated Primer dependent Amplification“ (HIP) konnte abschließend durch die Verkürzung der Distanz zwischen einem modifizierten Hinge-Primer und einem PCR-ähnlichen Primer verbessert werden. Schlussfolgerung: Die LAMP hat sich aufgrund der hohen Robustheit und Effizienz zu einer leistungsfähigen Alternative für die klassische PCR in der molekularbiologischen Diagnostik entwickelt. Unterschiedliche Detektionsverfahren verbessern die Leistungsfähigkeit der qualitativen und quantitativen LAMP für die Feldanwendungen und für die Diagnostik, da die neuen DNA- und Pyrophosphat-abhängigen Nachweismethoden in einer geschlossenen Reaktion eingesetzt werden können und so eine einfache Pathogendiagnostik ermöglichen. Die gezeigten Methoden können darüber hinaus zu einer Kostensenkung und Zeitersparnis gegenüber den herkömmlichen Methoden beitragen. Ein attraktives Ziel stellt die Weiterentwicklung der HIP für den Pathogennachweis als Alternative zur LAMP dar. Hierbei können die neuen LAMP-Detektionsverfahren ebenfalls Anwendung finden. Die Verwendung von Bst DNA-Polymerase-abhängigen Reaktionen ermöglicht darüber hinaus die Integration einer robusten isothermalen Amplifikation in mikrofluidische Systeme. Durch die Kombination der Probenvorbereitung, Amplifikation und Detektion sind zukünftige Anwendungen mit kurzer Analysezeit und geringem apparativen Aufwand insbesondere in der Pathogendiagnostik möglich. N2 - Background: Established protein- and nucleic acid-based methods for the specific pathogen detection are usually performed under standardized laboratory conditions by trained staff and are associated with long processing time and high costs. In nucleic acid-based pathogen diagnostics, the isothermal amplification can be used as a rapid and cost-effective alternative to the polymerase chain reaction (PCR). Among all isothermal techniques, the loop-mediated isothermal amplification (LAMP) offers a wide range of applications for the rapid endpoint and real-time detection. A major goal of this work, was to improve the applicability of LAMP and the development of a new method to get a simple, fast and cost-effective diagnostic tool that is based on the detection of DNA and pyrophosphate. For this purpose, direct and indirect detection methods were investigated as well as additional metal ion-dependent fluorescent dyes for the selective detection of pyrophosphate in LAMP or other enzymatic reactions identified. As an alternative to the DNA-based digital LAMP, the previously established dyes were tested for the detection of pyrophosphate in emulsion. Finally, a new reaction mechanism was developed that allows the efficient generation of high molecular weight DNA under isothermal reaction conditions. Results: The detection of RNA- and DNA-based phytopathogens in closed reactions was established successfully with different dyes for real-time and endpoint detection. Berberine as DNA-intercalating fluorescent dye was used in the real-time detection of LAMP with comparable sensitivity to SYBR Green and EvaGreen for the first time. Additionally, the results revealed adequate tolerance of the Bst DNA polymerase to higher concentrations of the dye. Thus, it could be used directly in a closed LAMP reaction without any optimization. Furthermore, the magnesium indicator hydroxynaphthol blue (HNB) was used for fluorometric real-time detection in LAMP for the first time. To extend the number of indirect detection methods for the accumulating pyrophosphate in LAMP and other enzymatic reactions, new metal-ion-dependent dyes were identified. The developed platform could support the iterative process of finding new fluorescent dyes with regard to enzyme compatibility and their spectral properties in the presence or absence of manganese ions. To obtain a selective fluorometric displacement assay, the complex concentration dependence between all components was investigated successfully by the establishment of a combinatorial screening in a microtiter plate. The visualization of the calculated signal-to-noise ratio was then used to identify alizarin red S and tetracycline as promising candidates under simulated reaction conditions. By testing both dyes in the enzymatic assay, alizarin red S was confirmed as low-cost, non-toxic and robust dye for the pyrophosphate dependent increase of the fluorescence intensity. The previously established dyes (HNB, calcein and alizarin red S) were applied successfully for the indirect and fluorometric detection of pyrophosphate in a LAMP-optimized emulsion. The stability and homogeneity of the generated emulsion was increased by adding the surfactant poloxamer 188. The fluorescence microscopic analysis showed a distinct discrimination between positive and negative droplets, in particular by using calcein, HNB and alizarin red S. Additionally, a new amplification reaction that is also based on the Bst DNA polymerase was developed to prevent the complicated primer design and likelihood of unspecific amplification in LAMP. The efficient regeneration of the single stranded priming site was achieved by the integration of a specific linker (abasic site or hexaethylenglycol) between two priming sites to create a bifunctional hinge-primer. After the hybridization on the template sequence, the hinge-primer was used to induce the refolding to a hairpin structure and for blocking the polymerase activity on the reverse strand. Thus, an autocyclic amplification can be achieved at isothermal reaction conditions. Finally, the efficiency of the hinge-initiated primer dependent amplification (HIP) was improved by decreasing the distance between the modified hinge-primer and the corresponding PCR-like primer. Conclusion: Due to its robustness and efficiency, LAMP has been developed to a powerful alternative for the standardized PCR-based diagnostics in molecular biology in the past years. Different detection methods improve the performance of the qualitative and quantitative LAMP in field applications as well as in diagnostics. The new DNA and pyrophosphate based assays can be used in closed reactions and contribute to a simple pathogen detection. Furthermore, the advancements can lead to a considerable reduction of costs and time compared to conventional methods. An attractive achievement is the further optimization of the HIP as sensitive pathogen assay by using LAMP-based detection methods. The use of Bst DNA polymerasedependent reactions will allow a robust integration of the isothermal amplification in microfluidic systems. By combining sample preparation, amplification and detection in one device, powerful applications with short analysis time and low instrumental requirements are a future perspective in pathogen diagnostics. KW - isothermale Amplifikation KW - isothermal amplification KW - Pyrophosphat KW - pyrophosphate KW - DNA KW - DNA KW - Pathogen KW - pathogen KW - LAMP KW - LAMP Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406072 ER - TY - THES A1 - Foti, Alessandro T1 - Characterization of the human aldehyde oxidase T1 - Charakterisierung der menschlichen Aldehydoxidase BT - Studies on the FAD active site and ROS generation N2 - In this work the human AOX1 was characterized and detailed aspects regarding the expression, the enzyme kinetics and the production of reactive oxygen species (ROS) were investigated. The hAOX1 is a cytosolic enzyme belonging to the molybdenum hydroxylase family. Its catalytically active form is a homodimer with a molecular weight of 300 kDa. Each monomer (150 kDa) consists of three domains: a N-terminal domain (20 kDa) containing two [2Fe-2S] clusters, a 40 kDa intermediate domain containing a flavin adenine dinucleotide (FAD), and a C-terminal domain (85 kDa) containing the substrate binding pocket and the molybdenum cofactor (Moco). The hAOX1 has an emerging role in the metabolism and pharmacokinetics of many drugs, especially aldehydes and N- heterocyclic compounds. In this study, the hAOX1 was hetereogously expressed in E. coli TP1000 cells, using a new codon optimized gene sequence which improved the expressed protein yield of around 10-fold compared to the previous expression systems for this enzyme. To increase the catalytic activity of hAOX1, an in vitro chemical sulfuration was performed to favor the insertion of the equatorial sulfido ligand at the Moco with consequent increased enzymatic activity of around 10-fold. Steady-state kinetics and inhibition studies were performed using several substrates, electron acceptors and inhibitors. The recombinant hAOX1 showed higher catalytic activity when molecular oxygen was used as electron acceptor. The highest turn over values were obtained with phenanthridine as substrate. Inhibition studies using thioridazine (phenothiazine family), in combination with structural studies performed in the group of Prof. M.J. Romão, Nova Universidade de Lisboa, showed a new inhibition site located in proximity of the dimerization site of hAOX1. The inhibition mode of thioridazine resulted in a noncompetitive inhibition type. Further inhibition studies with loxapine, a thioridazine-related molecule, showed the same type of inhibition. Additional inhibition studies using DCPIP and raloxifene were carried out. Extensive studies on the FAD active site of the hAOX1 were performed. Twenty new hAOX1 variants were produced and characterized. The hAOX1 variants generated in this work were divided in three groups: I) hAOX1 single nucleotide polymorphisms (SNP) variants; II) XOR- FAD loop hAOX1 variants; III) additional single point hAOX1 variants. The hAOX1 SNP variants G46E, G50D, G346R, R433P, A439E, K1231N showed clear alterations in their catalytic activity, indicating a crucial role of these residues into the FAD active site and in relation to the overall reactivity of hAOX1. Furthermore, residues of the bovine XOR FAD flexible loop (Q423ASRREDDIAK433) were introduced in the hAOX1. FAD loop hAOX1 variants were produced and characterized for their stability and catalytic activity. Especially the variants hAOX1 N436D/A437D/L438I, N436D/A437D/L438I/I440K and Q434R/N436D/A437D/L438I/I440K showed decreased catalytic activity and stability. hAOX1 wild type and variants were tested for reactivity toward NADH but no reaction was observed. Additionally, the hAOX1 wild type and variants were tested for the generation of reactive oxygen species (ROS). Interestingly, one of the SNP variants, hAOX1 L438V, showed a high ratio of superoxide prodction. This result showed a critical role for the residue Leu438 in the mechanism of oxygen radicals formation by hAOX1. Subsequently, further hAOX1 variants having the mutated Leu438 residue were produced. The variants hAOX1 L438A, L438F and L438K showed superoxide overproduction of around 85%, 65% and 35% of the total reducing equivalent obtained from the substrate oxidation. The results of this work show for the first time a characterization of the FAD active site of the hAOX1, revealing the importance of specific residues involved in the generation of ROS and effecting the overall enzymatic activity of hAOX1. The hAOX1 SNP variants presented here indicate that those allelic variations in humans might cause alterations ROS balancing and clearance of drugs in humans. N2 - Aldehydoxidasen (AOX) sind Molybdo-enzyme, die durch breite Substratspezifität gekennzeichnet sind, aromatische/aliphatische Aldehyde in die entsprechenden Carbonsäuren oxidieren und verschiedene heteroaromatische Ringe hydroxylieren. Die Enzyme verwenden Sauerstoff als terminalen Elektronenakzeptor und produzieren reduzierte Sauerstoffspezies während des Umsatzes. Die physiologische Funktion von Säugetier-AOX-Isoenzymen ist noch unklar, aber menschliches AOX (hAOX1) ist ein Enzym von Phase-I-Wirkstoff-Metabolismus. Weiterhin, wurden zahlreiche Einzelnukleotidpolymorphismen (SNP) und weitere hAOX1-Mutanten im hAOX1-Gen identifiziert. SNPs sind eine Hauptquelle für die interindividuelle Variabilität in der menschlichen Population, und SNP-basierte Aminosäureaustausche in hAOX1 modulieren die katalytische Funktion des Enzyms entweder positiv oder negativ. In diesem Bericht haben wir zehn neue SNPs ausgewählt, die zu Aminosäureaustauschen in der Nähe der FAD-Cofaktor von hAOX1 führen und die gereinigten Enzyme nach heterologen Expression in Escherichia coli charakterisieren. Darüber hinaus haben wir zehn weitere FAD-Varianten produziert. Die hAOX1-Varianten wurden sorgfältig durch quantitative Unterschiede in ihrer Fähigkeit zur Herstellung von Superoxidradikal charakterisiert. ROS repräsentieren markante Schlüsselmoleküle in physiologischen und pathologischen Zuständen in der Zelle. Unsere Daten zeigen signifikante Veränderungen der Superoxid-Anionenproduktion unter den Varianten. Insbesondere führte der Rest L438 in der Nähe des Isoalloxanzinringes des FAD-Cofaktors zu einer erhöhten Superoxid-Radikalproduktion von 75-85%. In Anbetracht der hohen Toxizität des Superoxid-Anions in der Zelle ist die hAOX1-L438V SNP-Variante ein eventueller Kandidat für kritische oder pathologische Rollen dieser natürlichen Variante innerhalb der menschlichen Population. KW - aldehyde KW - oxidase KW - ROS KW - reactive oxygen species Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410107 ER - TY - THES A1 - Garcia, Francisca T1 - Mundos comunes T1 - Gemein(sam)e Welten BT - redes artísticas y tramas documentales en los setenta latinoamericanos BT - künstlerische Netzwerke und dokumentarische Gewebe in den lateinamerikanischen siebziger Jahren N2 - Vor dem Hintergrund unterschiedlicher Bewegungen und künstlerischer Dialoge in den siebziger und achtziger Jahren, stellt ihre Doktorarbeit den Begriff des „Lateinamerikanischen“ auf dem Gebiet der Kunst und Kultur in Frage. Über eine „sammelnde Reise“ von Spuren, Zeichen und Fährten durch europäische Städte, analysiert die Arbeit die Begriffe Ort, Gemeinschaft und kulturelles Gedächtnis, um eine neue Form des lateinamerikanischen Kontinents bilden zu können. N2 - A partir de la constatación de una serie de movimientos y diálogos artísticos, correspondientes a las décadas del setenta y ochenta, su tesis doctoral interroga la noción de “lo latinoamericano” en el ámbito del arte y la cultura. La investigación realiza un “viaje recopilatorio” de documentos a través de distintas ciudades europeas que permiten problematizar el lugar, la comunidad y la memoria cultural de lo latinoamericano. KW - archive KW - community KW - Latin American art KW - artistic network KW - 70s KW - archivo KW - redes artísticas transatlánticas KW - comunidad KW - arte latinoamericano KW - años 70 Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400582 ER - TY - THES A1 - Georgiev, Vasil T1 - Light-induced transformations in biomembranes T1 - Lichtinduzierte Transformationen in Biomembranen N2 - Cellular membranes constantly experience remodeling, as exemplified by morphological changes during endo- and exocytosis. Regulation of membrane morphology is essential for these processes. In this work, we attempt to establish a regulation path based on the use of photoswitches exhibiting conformational changes in model membranes, namely, giant unilamellar vesicles (GUVs). The mechanism of the changes in the GUVs’ morphology caused by isomerization of the photosensitive molecules has been previously explored but still remains elusive. We examine the morphological reshaping of GUVs in the presence of the photoswitch o-tetrafluoroazobenzene (F-azo) and show that the mechanism behind the resulting morphological changes involves both an increase in the membrane area and generation of a positive spontaneous curvature. First, we characterize the partitioning of F-azo in a single-component membrane using both experimental and computational approaches. The partition coefficient calculated from molecular dynamic simulations agrees with experimental data obtained with size-exclusion chromatography. Then, we implement the approach of vesicle electrodeformation in order to assess the increase in the membrane area, which is observed as a result of the conformational change of F-azo. Finally, the local and the effective membrane spontaneous curvatures were estimated from the observed shapes of vesicles exhibiting outward budding. We then extend the application of the F-azo to multicomponent lipid membranes, which exhibit a coexistence of domains in different liquid phases due to a miscibility gap between the lipids. We perform initial experiments to investigate whether F-azo can be employed to modulate the lateral lipid packing and organization. We observe either complete mixing of the domains or the appearing of disordered domains within the domains of more ordered phase. The type of behavior observed in response to the photoisomerization of F-azo was dependent on the used lipid composition. We believe that the findings introduced here will have an impact in understanding and controlling both lipid phase modulation and regulation of the membrane morphology in membrane systems. N2 - Zelluläre Membranen durchlaufen ständige Formveränderungen wie zum Beispiel bei der Endo- und Exozytose. Für diese und andere Prozesse ist eine Regulierung der Membranmorphologie notwendig. In der vorliegenden Arbeit wurden riesen unilamellare Vesikel (giant unilamellar vesicles, GUVs) als Modelmembranen genutzt. Änderungen der Vesikelform wurde durch lichtschaltbare Moleküle (Fotoschalter) erzielt. Dass die Isomerisierung von lichtempfindlichen Molekülen eine Verformung von GUV ermöglichen kann, war bekannt. Jedoch war der zugrunde liegende Mechanismus unklar. In dieser Arbeit wurde zur Untersuchung dieses Mechanismus o-Tetrafluoroazobenzol (F-azo) als Fotoschalter verwendet. Damit konnte gezeigt werden, dass sowohl eine Vergrößerung der Membranfläche als auch das Entstehen einer positiven, spontanen Membrankrümmung den morphologischen Veränderungen zu Grunde liegen. Durch experimentelle und computergestützte Methoden konnte zunächst die Verteilung von F-azo in Membranen, die aus nur einer Komponente bestehen, quantifiziert werden. Der Verteilungskoeffizient aus molekular-dynamik Simulationen stimmte dabei mit den experimentellen Daten aus der Größenausschluss-Chromatographie überein. Im Anschluss bestimmten wir die Änderung der Membranfläche mit Hilfe von GUV-Verformung durch elektrische Felder, und konnten die Veränderung der lokalen und effektiven spontanen Membrankrümmung durch Beobachtung der Vesikelformen abschätzen. Um herauszufinden ob F-azo die laterale Verdichtung und Organisation von Membranlipiden moduliert, weitteten wir die Experimente auf mehr-komponenten Membranen aus. Diese sind durch die Koexistenz von Domänen zweier flüssiger Lipid-Phasen gekennzeichnet. Wir konnten sowohl das Auftreten von Domänen ungeordneter Lipidphasen in geordneten Lipidphasen beobachten, als auch die Entstehung homogener GUVs durch komplette Mischung beider Lipidphasen. Wir konnten zeigen, dass die unterschiedliche Beeinflussung der Domänen durch die Licht-induzierte Isomerisierung von F-azo dabei von der Zusammensetzung der Membranen abhängig ist. Mit den hier beschriebenen Ergebnissen legen wir einen Grundstein, für die lichtinduzierte Kontrolle über Membranenmorphologien sowie für die Foto-Modulation von Lipidphasen. KW - giant unilamellar vesicles KW - morphological changes KW - light KW - photoswitches KW - riesen unilamellare Vesikel KW - morphologischen Veränderungen KW - Licht KW - Fotoschalter Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395309 ER - TY - THES A1 - Golly, Antonius T1 - Formation and evolution of channel steps and their role for sediment dynamics in a steep mountain stream T1 - Formation und Evolution von Bachstufen und ihr Einfluss auf die Sedimentdynamik eines steilen Gebirgseinzugsgebietes N2 - Steep mountain channels are an important component of the fluvial system. On geological timescales, they shape mountain belts and counteract tectonic uplift by erosion. Their channels are strongly coupled to hillslopes and they are often the main source of sediment transported downstream to low-gradient rivers and to alluvial fans, where commonly settlements in mountainous areas are located. Hence, mountain streams are the cause for one of the main natural hazards in these regions. Due to climate change and a pronounced populating of mountainous regions the attention given to this threat is even growing. Although quantitative studies on sediment transport have significantly advanced our knowledge on measuring and calibration techniques we still lack studies of the processes within mountain catchments. Studies examining the mechanisms of energy and mass exchange on small temporal and spatial scales in steep streams remain sparse in comparison to low-gradient alluvial channels. In the beginning of this doctoral project, a vast amount of experience and knowledge of a steep stream in the Swiss Prealps had to be consolidated in order to shape the principal aim of this research effort. It became obvious, that observations from within the catchment are underrepresented in comparison to experiments performed at the catchment’s outlet measuring fluxes and the effects of the transported material. To counteract this imbalance, an examination of mass fluxes within the catchment on the process scale was intended. Hence, this thesis is heavily based on direct field observations, which are generally rare in these environments in quantity and quality. The first objective was to investigate the coupling of the channel with surrounding hillslopes, the major sources of sediment. This research, which involved the monitoring of the channel and adjacent hillslopes, revealed that alluvial channel steps play a key role in coupling of channel and hillslopes. The observations showed that hillslope stability is strongly associated with the step presence and an understanding of step morphology and stability is therefore crucial in understanding sediment mobilization. This finding refined the way we think about the sediment dynamics in steep channels and motivated continued research of the step dynamics. However, soon it became obvious that the technological basis for developing field tests and analyzing the high resolution geometry measured in the field was not available. Moreover, for many geometrical quantities in mountain channels definitions and a clear scientific standard was not available. For example, these streams are characterized by a high spatial variability of the channel banks, preventing straightforward calculations of the channel width without a defined reference. Thus, the second and inevitable part of this thesis became the development and evaluation of scientific tools in order to investigate the geometrical content of the study reach thoroughly. The developed framework allowed the derivation of various metrics of step and channel geometry which facilitated research on the a large data set of observations of channel steps. In the third part, innovative, physically-based metrics have been developed and compared to current knowledge on step formation, suggested in the literature. With this analyses it could be demonstrated that the formation of channel steps follow a wide range of hydraulic controls. Due to the wide range of tested parameters channel steps observed in a natural stream were attributed to different mechanisms of step formation, including those based on jamming and those based on key-stones. This study extended our knowledge on step formation in a steep stream and harmonized different, often time seen as competing, processes of step formation. This study was based on observations collected at one point in time. In the fourth part of this project, the findings of the snap-shot observations were extended in the temporal dimension and the derived concepts have been utilized to investigate reach-scale step patterns in response to large, exceptional flood events. The preliminary results of this work based on the long-term analyses of 7 years of long profile surveys showed that the previously observed channel-hillslope mechanism is the responsible for the short-term response of step formation. The findings of the long-term analyses of step patterns drew a bow to the initial observations of a channel-hillslope system which allowed to join the dots in the dynamics of steep stream. Thus, in this thesis a broad approach has been chosen to gain insights into the complex system of steep mountain rivers. The effort includes in situ field observations (article I), the development of quantitative scientific tools (article II), the reach-scale analyses of step-pool morphology (article III) and its temporal evolution (article IV). With this work our view on the processes within the catchment has been advanced towards a better mechanistic understanding of these fluvial system relevant to improve applied scientific work. N2 - Gebirgsbäche sind stark gekoppelt mit angrenzenden Hängen, welche eine Hauptquelle von Sediment darstellen. Dieses Sediment wird durch erosive Prozesse weiter im fluvialen System stromabwärts transportiert, häufig auch in Bereiche alpiner Besiedlung. Das transportierte Sediment kann dort verheerende Schäden an Gebäuden und Infrastruktur anrichten. Daher stellen Gebirgsbäche eine Hauptursache für Naturgefahren in steilen Regionen dar, welche durch den Wandel des Klimas und die fortschreitende Besiedlung durch den Menschen noch verstärkt werden. Wenngleich quantitative Studien unser Wissen über Mess- und Kalibrierungstechniken zur Erfassung von Sedimenttransport erweitert haben, so sind doch viele Prozesse innerhalb der Einzugsgebiete in Hinblick auf Erosion und Sedimentverfügbarkeit weitgehend unerforscht. So stellen Beobachtungen von Mechanismen von Energie- und Massenaustausch auf kleinen räumlichen und zeitlichen Skalen innerhalb steiler Gebirgseinzugsgebiete eine Ausname dar. Diese Doktorarbeit basiert auf hoch-qualitativen Feldbeobachtungen in einem schweizer Gebirgsbach um Forschungsfragen in Hinblick auf die Sediementdyanmik zu behandeln. Das erste Ziel war es, die Gerinne-Hang-Kopplung zu erforschen und zu verstehen, um mögliche Sedimentquellen zu identifizieren, sowie die Mechanismen und Prozesse der Sedimentgenerierung in den Kontext der allgemeinen Dynamik von Gebirgsbächen zu bringen. Die erste Studie, welche auf visuellen Beobachtungen basiert, offenbarte eine Schlüsselrolle von Bachstufen in der Gerinne-Hang-Kopplung. Auf dieser Grundlage wurde ein konzeptuelles Modell entwickelt (Artikel I): durch die Erosion von Bachstufen werden angrenzende Hänge destabilisiert und ermöglichen anhaltenden Sedimenteintrag. Diese Forschung regte eine genauere Beobachtung der räumlichen und zeitlichen Evolution von Bachstufen an. Die weitere Forschung erforderte jedoch neue technologische Werkzeuge und Methoden welche zunächst in dieser Doktorarbeit eigens entwickelt wurden (Artikel II). Mit diesen Werkzeugen wurde dann ein Datensatz eingemessener Bachstufen in Hinblick auf den Formationsprozess analysiert (Artikel III). Mit dieser Analyse konnten verschiedene Stufenbildungstheorien überprüft und und zwei dominante Mechanismen verifiziert werden: Bachstufen formen sich in engen und verengenden Bachabchnitten durch Verklemmung, sowie in breiten und breiter werdenden Abschnitten durch die Ablagerung von Schlüsselsteinen. Durch diese Beobachtung wurde unser Wissen über Stufenbildung erweitert indem verschiedene hypothetisierte Mechanismen in einem Gebirgsbach harmonisiert wurden. Zu guter Letzt wurde diese Punktbeobachtung schließlich in den zeitlichen Kontext gesetzt, indem die Muster von Bachstufen über 7 Jahre nach einem hydrologischen Großereignis in 2010 untersucht wurden (Artikel IV). Die vorläufigen Ergebnisse zeigen, dass Großereignisse einen erheblichen Einfluss auf die Gerinnebreite haben: sowohl die räumlich gemittelte Gerinnebreite, als auch die mittlere Gerinnebreite an Bachstufen ist unmittelbar nach dem Großereignis deutlich erhöht. Weiterhin ist die relative Anzahl der Bachstufen welche durch Schlüsselsteine erzeugt werden größer nach dem Großereignis. Dies deutet darauf hin, dass der zuerst beobachtete Mechanismus der Gerinne-Hang-Kopplung (Artikel I) verantwortlich ist für die zeitliche Evolution der Bachstufen nach Großereignissen (Artikel IV). KW - Geomorphologie KW - geomorphology KW - Naturgefahren KW - natural hazards KW - Gebirgsbäche KW - mountain rivers KW - Geschiebetransport KW - bedload transport KW - Bachstufen KW - channel steps KW - Gerinne-Hang-Kopplung KW - channel-hillslope coupling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411728 ER - TY - THES A1 - Graglia, Micaela T1 - Lignin valorization T1 - Lignin Valorisierung BT - extraction, characterization and applications BT - Extraktion, Charakterisierung und Anwendungen N2 - The topic of this project is the use of lignin as alternative source of aromatic building blocks and oligomers to fossil feedstocks. Lignin is known as the most abundant aromatic polymer in nature and is isolated from the lignocellulosic component of plants by different possible extraction treatments. Both the biomass source and the extraction method affect the structure of the isolated lignin, therefore influencing its further application. Lignin was extracted from beech wood by two different hydrothermal alkaline treatments, which use NaOH and Ba(OH)2 as base and by an acid-catalyzed organosolv process. Moreover, lignin was isolated from bamboo, beech wood and coconut by soda treatment of the biomasses. A comparison of the structural features of such isolated lignins was performed through the use of a wide range of analytical methods. Alkaline lignins resulted in a better candidate as carbon precursor and macromonomers for the synthesis of polymer than organosolv lignin. In fact, alkaline lignins showed higher residual mass after carbonization and higher content of the reactive hydroxy functionalities. In contrast, the lignin source turned out to slightly affect the lignin hydroxyl content. One of the most common lignin modifications is its deconstruction to obtain aromatic molecules, which can be used as starting materials for the synthesis of fine chemicals. Lignin deconstruction leads to a complex mixture of aromatic molecules. A gas chromatographic analytical method was developed to characterize the mixture of products obtained by lignin deconstruction via heterogeneous catalytic hydrogenolysis. The analytical protocol allowed the quantification of three main groups of molecules by means of calibration curves, internal standard and a preliminary silylation step of the sample. The analytical method was used to study the influence of the hydrogenolysis catalyst, temperature and system (flow and batch reactor) on the yield and selectivity of the aromatic compounds. Lignin extracted from beech wood by a hydrothermal process using Ba(OH)2 as base, was functionalized by aromatic nitration in order to add nitrogen functionalities. The final goal was the synthesis of a nitrogen doped carbon. Nitrated lignin was reduced to the amino form in order to compare the influence of different nitrogen functionalities on the porosity of the final carbon. The carbons were obtained by ionothermal treatment of the precursors in the presence of the eutectic salt mixture KCl/ZnCl2 Such synthesized carbons showed micro-, macro- and mesoporosity and were tested for their electrocatalytic activity towards the oxygen reduction reaction. Mesoporous carbon derived from nitro lignin displayed the highest electrocatalytic activity. Lignins isolated from coconut, beech wood and bamboo were used as macromonomers for the synthesis of biobased polyesters. A condensation reaction was performed between lignin and a hyper branched poly(ester-amine), previously obtained by condensation of triethanolamine and adipic acid. The influence of the lignin source and content on the thermochemical and mechanical properties of the final material was investigated. The prepolymer showed adhesive properties towards aluminum and its shear strength was therefore measured. The gluing properties of such synthesized glues turned out to be independent from the lignin source but affected by the amount of lignin in the final material. This work shows that, although still at a laboratory scale, the valorization of lignin can overcome the critical issues of lignin´s structure variability and complexity. N2 - Das Thema dieser Arbeit ist Lignin als alternative Quelle für aromatische Moleküle einzusetzen, welche sonst aus fossilen Rohstoffen hergestellt werden. Lignin ist das am häufigsten vorkommende aromatische Polymer in der Natur. Es wird durch verschiedene Extraktionsmethoden aus pflanzlicher Lignocellulose isoliert. Sowohl der Rohstoff als auch das Extraktionsverfahren beeinflussen die Struktur des isolierten Lignins und bestimmen dadurch die weiteren Anwendungsmöglichkeiten. In der vorliegenden Arbeit die wurde Lignin durch zwei alkalisch hydrothermale Extraktionsmethoden aus Buchenholz extrahiert, wobei entweder NaOH oder Ba(OH)2 verwendet wurde. Eine dritte Methode bedient sich der sogenannten säuerekatalysierten Organosolv-Extraktion. Das Weiteren wurden drei Lignine durch eine Soda Extraktionsmethode aus Bambus, Buchenholz und Kokosnussschalen isoliert. Die Strukturen dieser wurden mit Hilfe verschiedener analytischer Techniken analysiert und verglichen. Während alkalische Lignine sich besser als Ausgangsstoff für poröse Kohlenstoffmaterialien und Makromonomere für die Synthese von Polymeren eignen, zeigen Lignine aus dem Organosolv Prozess weniger gute Eigenschaften hinsichtlich dieser Applikationen. Die bis heute häufigste Modifikation von Lignin beschäftigt sich mit der Aufschließung zu aromatischen Molekülen, welche die Grundlage für die weitere Herstellung von Chemikalien darstellen. Um die Aufschlussprodukte der Hydrogenolyse aus Lignin vergleichen zu können, wurde während dieser Arbeit wurde eine Gaschromatographiemethode entwickelt. In einem weiteren Schritt wurde isoliertes Lignin aus Buchenholzspänen durch Nitrierung mit zusätzlichem Stickstoff funktionalisiert. Das modifizierte Lignin konnte direkt al Präkursor für stickstoffdotierte kohlen dienen, welche mittels ionothermaler Synthese mit Hilfe von KCl/ZnCl2 als eutektischem Salz hergestellt wurden. Diese Materialien wurden erfolgreich in der Sauerstoffreduktion als Katalysator zum Einsatz gebracht. Die gewonnen Lignine aus Kokosnussschalen, Bambus und Buchenholz wurden als Makromonomere für die Herstellung von biobasiertem Polyester verwendet. Sowohl die thermochemischen als auch die mechanischen Eigenschaften wurden durch die unterschiedlichen Lignine der verschiedenen Pflanzen beeinflusst. Das hergestellte Polymer zeigte gute Eigenschaften als Biomass-basierter Kleber. Mit dieser Arbeit konnte gezeigt werden, dass Lignin, obwohl es eine sehr variable und komplexe Struktur aufweis, in verschiedenen Anwendungsbereichen zum Einsatz kommen kann, auch wenn diese bis heute nur im Labormaßstab verwirklicht wurden. KW - Lignin KW - biorefinery KW - biomass KW - Lignin KW - Biomasse KW - Bioraffinerie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104863 ER - TY - THES A1 - Grimm-Seyfarth, Annegret T1 - Effects of climate change on a reptile community in arid Australia T1 - Auswirkungen von Klimawandel auf eine Reptiliengemeinschaft im ariden Australien BT - exploring mechanisms and processes in a hot, dry, and mysterious ecosystem BT - eine Untersuchung von Mechanismen und Prozessen in einem heißen, trockenen, und rätselhaften Ökosystem N2 - Dies ist eine kumulative Dissertation, die drei Originalstudien umfasst (eine publiziert, eine in Revision, eine eingereicht; Stand Dezember 2017). Sie untersucht, wie Reptilienarten im ariden Australien auf verschiedene klimatische Parameter verschiedener räumlicher Skalen reagieren und analysiert dabei zwei mögliche zugrunde liegende Hauptmechanismen: Thermoregulatorisches Verhalten und zwischenartliche Wechselwirkungen. In dieser Dissertation wurden umfassende, individuenbasierte Felddaten verschiedener trophischer Ebenen kombiniert mit ausgewählten Feldexperimenten, statistischen Analysen, und Vorhersagemodellen. Die hier erkannten Mechanismen und Prozesse können nun genutzt werden, um mögliche Veränderungen der ariden Reptiliengesellschaft in der Zukunft vorherzusagen. Dieses Wissen wird dazu beitragen, dass unser Grundverständnis über die Konsequenzen des globalen Wandels verbessert und Biodiversitätsverlust in diesem anfälligen Ökosystem verhindert wird. N2 - This is a cumulative dissertation comprising three original studies (one published, one in revision, one submitted; Effective December 2017) investigating how reptile species in arid Australia respond to various climatic parameters at different spatial scales and analysing the two potential main underlying mechanisms: thermoregulatory behaviour and species interactions. This dissertation combines extensive individual-based field data across trophic levels, selected field experiments, statistical analyses, and predictive modelling techniques. Mechanisms and processes detected in this dissertation can now be used to predict potential future changes in the community of arid-zone lizards. This knowledge will help improving our fundamental understanding of the consequences of global change and thereby prevent biodiversity loss in a vulnerable ecosystem. KW - Australien KW - Reptilien KW - Australia KW - reptiles KW - Populationsökologie KW - population ecology KW - Thermoregulationsverhalten KW - thermoregulatory behaviour KW - interspezifische Wechselwirkungen KW - interspecific interactions KW - Vorhersagemodelle KW - predictive modelling KW - Klimawandel KW - climate change KW - Wüste KW - desert Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412655 ER - TY - THES A1 - Gudipudi, Venkata Ramana T1 - Cities and global sustainability T1 - Städte und globale Nachhaltigkeit BT - insights from emission and ecological efficiency BT - Einblicke von Emission und ökologischer Effizienz N2 - In the wake of 21st century, humanity witnessed a phenomenal raise of urban agglomerations as powerhouses for innovation and socioeconomic growth. Driving much of national (and in few instances even global) economy, such a gargantuan raise of cities is also accompanied by subsequent increase in energy, resource consumption and waste generation. Much of anthropogenic transformation of Earth's environment in terms of environmental pollution at local level to planetary scale in the form of climate change is currently taking place in cities. Projected to be crucibles for entire humanity by the end of this century, the ultimate fate of humanity predominantly lies in the hands of technological innovation, urbanites' attitudes towards energy/resource consumption and development pathways undertaken by current and future cities. Considering the unparalleled energy, resource consumption and emissions currently attributed to global cities, this thesis addresses these issues from an efficiency point of view. More specifically, this thesis addresses the influence of population size, density, economic geography and technology in improving urban greenhouse gas (GHG) emission efficiency and identifies the factors leading to improved eco-efficiency in cities. In order to investigate the in uence of these factors in improving emission and resource efficiency in cities, a multitude of freely available datasets were coupled with some novel methodologies and analytical approaches in this thesis. Merging the well-established Kaya Identity to the recently developed urban scaling laws, an Urban Kaya Relation is developed to identify whether large cities are more emission efficient and the intrinsic factors leading to such (in)efficiency. Applying Urban Kaya Relation to a global dataset of 61 cities in 12 countries, this thesis identifed that large cities in developed regions of the world will bring emission efficiency gains because of the better technologies implemented in these cities to produce and utilize energy consumption while the opposite is the case for cities in developing regions. Large cities in developing countries are less efficient mainly because of their affluence and lack of efficient technologies. Apart from the in uence of population size on emission efficiency, this thesis identified the crucial role played by population density in improving building and on-road transport sector related emission efficiency in cities. This is achieved by applying the City Clustering Algorithm (CCA) on two different gridded land use datasets and a standard emission inventory to attribute these sectoral emissions to all inhabited settlements in the USA. Results show that doubling the population density would entail a reduction in the total CO2 emissions in buildings and on-road sectors typically by at least 42 %. Irrespective of their population size and density, cities are often blamed for their intensive resource consumption that threatens not only local but also global sustainability. This thesis merged the concept of urban metabolism with benchmarking and identified cities which are eco-efficient. These cities enable better socioeconomic conditions while being less burden to the environment. Three environmental burden indicators (annual average NO2 concentration, per capita waste generation and water consumption) and two socioeconomic indicators (GDP per capita and employment ratio) for 88 most populous European cities are considered in this study. Using two different non-parametric ranking methods namely regression residual ranking and Data Envelopment Analysis (DEA), eco-efficient cities and their determining factors are identified. This in-depth analysis revealed that mature cities with well-established economic structures such as Munich, Stockholm and Oslo are eco-efficient. Further, correlations between objective eco-efficiency ranking with each of the indicator rankings and the ranking of urbanites' subjective perception about quality of life are analyzed. This analysis revealed that urbanites' perception about quality of life is not merely confined to the socioeconomic well-being but rather to their combination with lower environmental burden. In summary, the findings of this dissertation has three general conclusions for improving emission and ecological efficiency in cities. Firstly, large cities in emerging nations face a huge challenge with respect to improving their emission efficiency. The task in front of these cities is threefold: (1) deploying efficient technologies for the generation of electricity and improvement of public transportation to unlock their leap frogging potential, (2) addressing the issue of energy poverty and (3) ensuring that these cities do not develop similar energy consumption patterns with infrastructure lock-in behavior similar to those of cities in developed regions. Secondly, the on-going urban sprawl as a global phenomenon will decrease the emission efficiency within the building and transportation sector. Therefore, local policy makers should identify adequate fiscal and land use policies to curb urban sprawl. Lastly, since mature cities with well-established economic structures are more eco-efficient and urbanites' perception re ects its combination with decreasing environmental burden; there is a need to adopt and implement strategies which enable socioeconomic growth in cities whilst decreasing their environment burden. N2 - Im Laufe des 21. Jahrhunderts verzeichnete die Menschheit eine gewaltige Zunahme urbaner Agglomerationen als Motor für Innovation und soziökonomisches Wachstum. Angetrieben durch die nationale (und in wenigen Fällen auch globale) Wirtschaft, dieser gigantische Aufstieg der Städte ist allerdings auch mit einer Zunahme von Energie- und Ressourcenverbrauch sowie erhöhter Abfallerzeugung verbunden. Ein Großteil der anthropogenen Transformation der Umwelt in Form von Klimaveränderungen von der lokalen Ebene bis in die planetarische Dimension findet derzeit in Städten statt. Angenommen dass bis zum Ende des Jahrhunderts die gesamte Menschheit in einer Art Schmelztiegel miteinander verbunden sein wird, dann hängt ihr Schicksal von der Umsetzung innovativer und überlegender Entwicklungspfade heutiger und zukünftiger Städte ab. Angesichts des unvergleichlichen Energie- und Ressourcenverbrauchs sowie der Emissionen, die derzeit in Städten verursacht werden, befasst sich diese Arbeit mit genau diesen Fragen aus der Perspektive der Effizienz. Genauer gesagt, diese Arbeit befasst sich mit dem Einfluss der städtischen Größe, Dichte, Wirtschaftsgeographie und Technologie zur Verbesserung der Emissionseffizienz der städtischen Treibhausgase, mit dem Ziel die Faktoren, die zu einer Verbesserung der ökoeffizienz in Städten führt, zu identifizieren. Um den Einfluss dieser Faktoren auf die Verbesserung der Emissions- und Ressourceneffizienz in Städten zu untersuchen, wurden in dieser Arbeit eine Vielzahl von frei verfügbaren Datensätzen mit neuartigen Methoden und analytischen Ansätzen gekoppelt. Durch die Verschmelzung der bereits etablierten Kaya-Identität‘ mit den kürzlich entwickelten urbanen Skalierungsgesetzen wird eine ’urbane Kaya-Relation’ entwickelt, um herauszufinden, ob Großstädte emissionsärmer also effizienter sind und welche Faktoren zu dieser (In-)Effizienz führen. Dafür wurde die ’urbanen Kaya-Relation’ auf einen globalen Datensatz für 61 Städte in 12 Ländern angewendet. Die vorliegende Arbeit kommt zu dem Ergebnis, dass den Großstädten in den entwickelten Regionen der Welt Effizienzgewinne aufgrund des Einsatzes besserer Technologien für die Produktion und Nutzung von Energie gelingt, während für die Städte in Entwicklungsländern das Gegenteil gilt. Großstädte in Entwicklungsländern sind weniger effizient, vor allem wegen ihres Wohlstands und des Mangels an effizienten Technologien. Abgesehen vom Einfluss der Bevölkerungsgröße auf die Emissionseffizienz, zeigt diese Arbeit auch die entscheidende Rolle der Bevölkerungsdichte bei der Effizienzsteigerung im Bau- und Transportsektor. Dies wird durch die Anwendung des City Clustering Algorithmus (CCA) auf zwei verschiedene raster-basierte Landnutzungsdatensätze und ein Standard-Emissionskataster erreicht, um die sektoralen Emissionen allen bewohnten Siedlungen in den USA zuzuordnen. Die Ergebnisse zeigen, dass eine Verdoppelung der Bevölkerungsdichte eine Verringerung der CO2-Gesamtemissionen in Gebäuden und Straßenverkehrssektoren um typischerweise mindestens 42% bedeuten würde. Unabhängig von der Bevölkerungsgröße und -dichte werden Städte häufig für ihren intensiven Ressourcenverbrauch verantwortlich gemacht, der nicht nur die lokale, sondern auch die globale Nachhaltigkeit bedroht. Diese Arbeit verbindet das Konzept des urbanen Metabolismus mit Benchmarking und identifiziert Städten, die ökoeffizient sind. Diese Städte bieten bessere sozioökonomische Bedingungen und belasten die Umwelt weniger. In dieser Studie werden drei Indikatoren für die Umweltbelastung (jährliche durchschnittliche NO2-Konzentration, Abfallaufkommen pro Kopf und Wasserverbrauch) und zwei sozioökonomische Indikatoren (BIP pro Kopf und Beschäftigungsquote) für die 88 bevölkerungsreichsten europäischen Städte berücksichtigt. Mithilfe von zwei verschiedenen Rankingmethoden, einerseits dem regression residual ranking‘ und der Data Envelopment Analysis‘ (DEA), werden ökoeffiziente Städte und ihre Bestimmungsfaktoren identifiziert. Die gründliche Analyse ergab, dass die gewachsenen Städte mit etablierten städtischen Wirtschaften wie München, Stockholm und Oslo ökoeffizient sind. Weiterhin wurden Zusammenhänge zwischen objektiven ökoeffizienz Einstufungen (ranking) mit den Einstufungen hinsichtlich einzelner Indikatoren sowie der subjektiven Wahrnehmung der Stadtbewohner über ihre Lebensqualität analysiert. Diese Analyse ergab, dass sich die Wahrnehmung der Lebensqualität von Stadtbewohnern nicht nur auf das sozioökonomische Wohlergehen beschränkt, sondern auch auf die Kombination mit einer geringeren Umweltbelastung. Zusammenfassend lässt sich sagen, dass die Ergebnisse dieser Dissertation drei generelle Schlussfolgerungen zur Verbesserung der Emissions- und ökoeffizienz in Städten enthalten. Erstens stehen Großstädte in Schwellenländern wie China, Indien und Brasilien vor einer großen Herausforderung, ihre Emissionseffizienz zu verbessern. Vor diesen Städten stehen drei Aufgaben: (1) Einsatz effizienter Technologien zur Stromerzeugung und Verbesserung des öffentlichen Verkehrs, (2) Bekämpfung der Energiearmut und (3) Sicherstellung, dass diese Städte keine Energiekonsummuster entwickeln, die dem infrastrukturellen Lock-in-Verhalten‘ der Städte in entwickelten Regionen ähneln. Zweitens wird die fortschreitende Zersiedelung der Städte als globales Phänomen die Emissionseffizienz im Bau- und Verkehrssektor verringern. Daher sollten die lokalen politischen Entscheidungsträger angemessene fiskal- und landnutzungspolitische Maßnahmen zur Eindämmung der Zersiedelung der Städte festlegen. Schließlich müssen Strategien verabschiedet und umgesetzt werden, die das sozioökonomische Wachstum in den Städten ermöglicht und gleichzeitig die Umweltbelastung verringert, wie es in den gewachsenen Städten bereits heute vorzufinden ist. KW - cities KW - climate change KW - urban efficiency KW - sustainable urban development KW - Städe KW - Klimawandel KW - Städte Effizienz KW - nachaltige Städteentwicklung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407113 ER - TY - THES A1 - Guidi, Giovanni T1 - Connecting simulations and observations in galaxy formation studies T1 - Verknüpfung von Simulationen und Beobachtungen bei der Untersuchung der Galaxienenstehung N2 - Observational and computational extragalactic astrophysics are two fields of research that study a similar subject from different perspectives. Observational extragalactic astrophysics aims, by recovering the spectral energy distribution of galaxies at different wavelengths, to reliably measure their properties at different cosmic times and in a large variety of environments. Analyzing the light collected by the instruments, observers try to disentangle the different processes occurring in galaxies at the scales of galactic physics, as well as the effect of larger scale processes such as mergers and accretion, in order to obtain a consistent picture of galaxy formation and evolution. On the other hand, hydrodynamical simulations of galaxy formation in cosmological context are able to follow the evolution of a galaxy along cosmic time, taking into account both external processes such as mergers, interactions and accretion, and internal mechanisms such as feedback from Supernovae and Active Galactic Nuclei. Due to the great advances in both fields of research, we have nowadays available spectral and photometric information for a large number of galaxies in the Universe at different cosmic times, which has in turn provided important knowledge about the evolution of the Universe; at the same time, we are able to realistically simulate galaxy formation and evolution in large volumes of the Universe, taking into account the most relevant physical processes occurring in galaxies. As these two approaches are intrinsically different in their methodology and in the information they provide, the connection between simulations and observations is still not fully established, although simulations are often used in galaxies' studies to interpret observations and assess the effect of the different processes acting on galaxies on the observable properties, and simulators usually test the physical recipes implemented in their hydrodynamical codes through the comparison with observations. In this dissertation we aim to better connect the observational and computational approaches in the study of galaxy formation and evolution, using the methods and results of one field to test and validate the methods and results of the other. In a first work we study the biases and systematics in the derivation of the galaxy properties in observations. We post-process hydrodynamical cosmological simulations of galaxy formation to calculate the galaxies' Spectral Energy Distributions (SEDs) using different approaches, including radiative transfer techniques. Comparing the direct results of the simulations with the quantities obtained applying observational techniques to these synthetic SEDs, we are able to make an analysis of the biases intrinsic in the observational algorithms, and quantify their accuracy in recovering the galaxies' properties, as well as estimating the uncertainties affecting a comparison between simulations and observations when different approaches to obtain the observables are followed. Our results show that for some quantities such as the stellar ages, metallicities and gas oxygen abundances large differences can appear, depending on the technique applied in the derivation. In a second work we compare a set of fifteen galaxies similar in mass to the Milky Way and with a quiet merger history in the recent past (hence expected to have properties close to spiral galaxies), simulated in a cosmological context, with data from the Sloan Digital Sky Survey (SDSS). We use techniques to obtain the observables as similar as possible to the ones applied in SDSS, with the aim of making an unbiased comparison between our set of hydrodynamical simulations and SDSS observations. We quantify the differences in the physical properties when these are obtained directly from the simulations without post-processing, or mimicking the SDSS observational techniques. We fit linear relations between the values derived directly from the simulations and following SDSS observational procedures, which in most of the cases have relatively high correlation, that can be easily used to more reliably compare simulations with SDSS data. When mimicking SDSS techniques, these simulated galaxies are photometrically similar to galaxies in the SDSS blue sequence/green valley, but have in general older ages, lower SFRs and metallicities compared to the majority of the spirals in the observational dataset. In a third work, we post-process hydrodynamical simulations of galaxies with radiative transfer techniques, to generate synthetic data that mimic the properties of the CALIFA Integral Field Spectroscopy (IFS) survey. We reproduce the main characteristics of the CALIFA observations in terms of field of view and spaxel physical size, data format, point spread functions and detector noise. This 3-dimensional dataset is suited to be analyzed by the same algorithms applied to the CALIFA dataset, and can be used as a tool to test the ability of the observational algorithms in recovering the properties of the CALIFA galaxies. To this purpose, we also generate the resolved maps of the simulations' properties, calculated directly from the hydrodynamical snapshots, or from the simulated spectra prior to the addition of the noise. Our work shows that a reliable connection between the models and the data is of crucial importance both to judge the output of galaxy formation codes and to accurately test the observational algorithms used in the analysis of galaxy surveys' data. A correct interpretation of observations will be particularly important in the future, in light of the several ongoing and planned large galaxy surveys that will provide the community with large datasets of properties of galaxies (often spatially-resolved) at different cosmic times, allowing to study galaxy formation physics at a higher level of detail than ever before. We have shown that neglecting the observational biases in the comparison between simulations and an observational dataset may move the simulations to different regions in the planes of the observables, strongly affecting the assessment of the correctness of the sub-resolution physical models implemented in galaxy formation codes, as well as the interpretation of given observational results using simulations. N2 - Beobachtende und computergestütze extragalaktische Astrophysik sind zwei Forschugnsbereiche welche ein ähnliches Gebiet in unterschiedlichen Perspektiven untersuchen. Beobachtende extragalaktische Astrophysik hat das Ziel verlässlich die Eigenschaften bei verschiedenen kosmischen Zeiten und bei einer großen Vielzahl von Umgebungen, durch das Betrachten der spektralen Energieverteilung der Galaxien, zu vermessen. Auf der anderen Seite sind hydrodynamische Simulationen im kosmologischen Kontext in der Lage die Entstehung und zeitliche Entwicklung einer Galaxie zu verfolgen, in dem unterschiedliche physikalische Prozesse einbezogen werden. Aufgrund der großen Fortschritte beider Forschungsbereiche sind heutzutage große Datenbanken mit Spektren und photometrische Informationen für eine große Menge von Galaxien bei verschiedenen kosmischen Zeiten verfügbar. Zur gleichen Zeit sind wir in der Lage die Entstehung und Entwicklung von Galaxien realistisch zu simulieren, unter Berücksichtigung der wichtigsten physikalischen Prozesse. Da diese Ansätze grundlegend verschieden sind, ist die Verbindung von Simulationen und Beobachtungen nicht komplett hergestellt, obwohl Simulationen oft zur Interpretation von Beobachtungen genutzt werden und Simulationen durch den Vergleich mit Beobachtungen getestet werden. Das Ziel dieser Dissertation ist die bessere Verknüpfung von Simulationen und Beobachtungen durch die Verwendung der Methoden und Ergebnisse der einen Methode, zur Validierung der anderen und umgekehrt. In einer ersten Arbeit untersuchen wir die systematischen Effekte bei der Vermessung der Eigenschaften von Galaxien in Beobachtungen. Indem wir direkt Simulationen mit syntetischen Daten vergleichen, ist es uns möglich die systematischen Effekte der Beobachtungsalgorithmen zu untersuchen und ihre Genauigkeit bei der Untersuchung der Eigenschaften der Galaxien zu bestimmen. Unsere Ergebnisse ziegen, dass für einige Messgrößen große Unterschiede auftreten können. In einer zweiten Arbeit vergleichen wir 15 simulierte Spiralgalaxien mit ähnlicher Masse wie der Milchstraße mit Daten vom Sloan Digital Sky Survey (SDSS). Dabei verwenden wir die gleichen Methoden, welche bei SDSS verwendet werden, um möglischest unvoreingenommen zwischen hydrodynamischen Simulationen und SDSS Daten zu vergleichen. Wenn wir die Beobachtungsmethoden von SDSS nachahmen, sind die simulierten Galaxien den SDSS Galaxien der blauen Sequenz in der Photometrie ähnlich, aber haben generell höheres Alter, geringere Sternentstehungsrate und Metalizität. In einer dritten Arbeit bearbeiten wir hydrodynamische Simulationen von Galaxien mit Strahlungstransportalgorithmen um synthetische Daten des CALIFA Integralfeldspektroskopie Surveys (IFS) zu erzeugen. Wir reproduzieren die Hauptcharakteristika der CALIFA-Beobachtungen in Bezug auf Sichtfeld, Spaxelgröße, Datenformat, Punktspreizfunktion und Detektorrauschen. Dieser dreidimensionale Datensatz is geeignet, um mit den selben Techniken analysiert zu werden, wie die CALIFA-Daten und können als Mittel genutzt werden, um die Genauigkeit der Beobachtungsalgorithmen zu testen. Zu diesem Zweck erzeugen wir räumlich aufgelöste Eigenschaften der Simulationen, welche direkt von den Aufnahmen der hydrodynamischen Simulationen oder synthetischen Spektren ohne Rauschen berechnet werden. Unsere Arbeit zeigt, dass die verlässliche Verknüpfung von Modellen und Daten von entscheidender Wichtigkeit ist ist, um die Ergebnisse der Galaxieformationssimulationen zu beurteilen und akurat die Beobachtungsalgorithmen zu testen, welche bei der Analyse der Galaxiesurveydaten benutzt werden. Eine korrekte Interpretation der Beobachtungen wird im Hinblick auf die vielen fortlaufenden und geplanten Galaxiesurveys, welche den Wissenschaftern große Datenmengen der Eigenschaften der Galaxien bei unterschiedlichen Zeiten zur Verfügung stellen werden, besonders wichtig in der Zukunft, da dies eine genauere Untersuchung der Physik der Galaxieformationen auf einem Niveau, höher als je zuvor, ermöglichen wird. Außerdem haben wir gezeigt, dass bei dem Vergleichen zwischen Beobachtungen und Simulationen der Bias der Beobachtungen nicht vernachlässigbar ist und die Beurteilung der Korrekturen der physikalischen Modelle, welche in en Galaxieformationscodes implementiert ist, stark beeinflusst, als auch die Interpretation der gegebenen Ergebnisse der Beobachtungen bei Verwendung von Simulationen. KW - galaxy formation KW - galaxy evolution KW - cosmological simulations KW - numerical techniques KW - mock observations KW - Entstehung von Galaxien KW - Entwicklung von Galaxien KW - kosmologische Simulationen KW - numerische Methoden KW - synthetische Beobachtungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396876 ER - TY - THES A1 - Heck, Christian T1 - Gold and silver nanolenses self-assembled by DNA origami T1 - Gold- und Silbernanolinsen, selbstassembliert durch DNA-Origami N2 - Nanolenses are linear chains of differently-sized metal nanoparticles, which can theoretically provide extremely high field enhancements. The complex structure renders their synthesis challenging and has hampered closer analyses so far. Here, the technique of DNA origami was used to self-assemble DNA-coated 10 nm, 20 nm, and 60 nm gold or silver nanoparticles into gold or silver nanolenses. Three different geometrical arrangements of gold nanolenses were assembled, and for each of the three, sets of single gold nanolenses were investigated in detail by atomic force microscopy, scanning electron microscopy, dark-field scattering and Raman spectroscopy. The surface-enhanced Raman scattering (SERS) capabilities of the single nanolenses were assessed by labelling the 10 nm gold nanoparticle selectively with dye molecules. The experimental data was complemented by finite-difference time-domain simulations. For those gold nanolenses which showed the strongest field enhancement, SERS signals from the two different internal gaps were compared by selectively placing probe dyes on the 20 nm or 60 nm gold particles. The highest enhancement was found for the gap between the 20 nm and 10 nm nanoparticle, which is indicative of a cascaded field enhancement. The protein streptavidin was labelled with alkyne groups and served as a biological model analyte, bound between the 20 nm and 10 nm particle of silver nanolenses. Thereby, a SERS signal from a single streptavidin could be detected. Background peaks observed in SERS measurements on single silver nanolenses could be attributed to amorphous carbon. It was shown that the amorphous carbon is generated in situ. N2 - Nanolinsen sind Strukturen aus linear angeordneten, unterschiedlich großen metallischen Nanopartikeln. Elektromagnetische Felder können durch sie theoretisch extrem verstärkt werden, aufgrund ihres komplexen Aufbaus sind sie bislang aber wenig erforscht. Im Rahmen dieser Dissertation wurden Nanolinsen mit Hilfe der DNA-Origami-Technik aus DNA-beschichteten 10 nm-, 20 nm- und 60 nm-Gold- oder Silbernanopartikeln hergestellt. Für Goldnanolinsen sind die Partikel dabei in drei unterschiedlichen Geometrien angeordnet worden. Einzelne Goldnanolinsen wurden mittels Rasterkraftmikroskopie, Rasterelektronenmikroskopie, Dunkelfeld- und Ramanspektroskopie untersucht. Um die Raman-Verstärkung quantifizieren zu können, trugen dabei jeweils die 10 nm-Goldpartikel Farbstoffmoleküle in ihrer Beschichtung. Die Interpretation der Messdaten wurde durch numerische Simulationen unterstützt. Nanolinsen zeichnen sich durch eine stufenweise Feldverstärkung aus. Dieser Effekt konnte experimentell bestätigt werden, indem selektiv die 20 nm- oder 60 nm-Partikel von Goldnanolinsen mit Farbstoffen markiert und die resultierenden Raman-Signale verglichen wurden. Ein mit Alkingruppen markiertes Protein ist ortsselektiv in Silbernanolinsen integriert worden. Es war möglich, das für das Alkin charakteristische oberflächenverstärkte Raman-Signal im Spektrum einer einzelnen Nanolinse und damit eines einzelnen Proteins zu beobachten. Bei den Messungen mit Silbernanolinsen sind für amorphe Kohlenstoffspezies charakterstische Hintergrundsignale beobachtet worden. Durch zeitabhängige Messungen konnte gezeigt werden, dass diese Spezies erst in situ gebildet werden. KW - DNA origami KW - gold nanoparticles KW - silver nanoparticles KW - SERS KW - self-assembly KW - plasmonics KW - nanolenses KW - DNA-Origami KW - Goldnanopartikel KW - Silbernanopartikel KW - SERS KW - Selbstassemblierung KW - Plasmonik KW - Nanolinsen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409002 ER - TY - THES A1 - Heinke, David T1 - Entwicklung biokompatibler superparamagnetischer Nanopartikel für den Einsatz als in vivo-Diagnostikum insbesondere im Magnetic Particle Imaging T1 - Development of biocompatible and superparamagnetic nanoparticles for use as in vivo diagnostics especially in magnetic particle imaging N2 - Magnetische Eisenoxidnanopartikel werden bereits seit geraumer Zeit erfolgreich als MRT-Kontrastmittel in der klinischen Bildgebung eingesetzt. Durch Optimierung der magnetischen Eigenschaften der Nanopartikel kann die Aussagekraft von MR-Aufnahmen verbessert und somit der diagnostische Wert einer MR-Anwendung weiter erhöht werden. Neben der Verbesserung bestehender Verfahren wird die bildgebende Diagnostik ebenso durch die Entwicklung neuer Verfahren, wie dem Magnetic Particle Imaging, vorangetrieben. Da hierbei das Messsignal von den magnetischen Nanopartikeln selbst erzeugt wird, birgt das MPI einen enormen Vorteil hinsichtlich der Sensitivität bei gleichzeitig hoher zeitlicher und räumlicher Auflösung. Da es aktuell jedoch keinen kommerziell vertriebenen in vivo-tauglichen MPI-Tracer gibt, besteht ein dringender Bedarf an geeigneten innovativen Tracermaterialien. Daraus resultierte die Motivation dieser Arbeit biokompatible und superparamagnetische Eisenoxidnanopartikel für den Einsatz als in vivo-Diagnostikum insbesondere im Magnetic Particle Imaging zu entwickeln. Auch wenn der Fokus auf der Tracerentwicklung für das MPI lag, wurde ebenso die MR-Performance bewertet, da geeignete Partikel somit alternativ oder zusätzlich als MR-Kontrastmittel mit verbesserten Kontrasteigenschaften eingesetzt werden könnten. Die Synthese der Eisenoxidnanopartikel erfolgte über die partielle Oxidation von gefälltem Eisen(II)-hydroxid und Green Rust sowie eine diffusionskontrollierte Kopräzipitation in einem Hydrogel. Mit der partiellen Oxidation von Eisen(II)-hydroxid und Green Rust konnten erfolgreich biokompatible und über lange Zeit stabile Eisenoxidnanopartikel synthetisiert werden. Zudem wurden geeignete Methoden zur Formulierung und Sterilisierung etabliert, wodurch zahlreiche Voraussetzungen für eine Anwendung als in vivo-Diagnostikum geschaffen wurden. Weiterhin ist auf Grundlage der MPS-Performance eine hervorragende Eignung dieser Partikel als MPI-Tracer zu erwarten, wodurch die Weiterentwicklung der MPI-Technologie maßgeblich vorangetrieben werden könnte. Die Bestimmung der NMR-Relaxivitäten sowie ein initialer in vivo-Versuch zeigten zudem das große Potential der formulierten Nanopartikelsuspensionen als MRT-Kontrastmittel. Die Modifizierung der Partikeloberfläche ermöglicht ferner die Herstellung zielgerichteter Nanopartikel sowie die Markierung von Zellen, wodurch das mögliche Anwendungsspektrum maßgeblich erweitert wurde. Im zweiten Teil wurden Partikel durch eine diffusionskontrollierte Kopräzipitation im Hydrogel, wobei es sich um eine bioinspirierte Modifikation der klassischen Kopräzipitation handelt, synthetisiert, wodurch Partikel mit einer durchschnittlichen Kristallitgröße von 24 nm generiert werden konnten. Die Bestimmung der MPS- und MR-Performance elektrostatisch stabilisierter Partikel ergab vielversprechende Resultate. In Vorbereitung auf die Entwicklung eines in vivo-Diagnostikums wurden die Partikel anschließend erfolgreich sterisch stabilisiert, wodurch der kolloidale Zustand in MilliQ-Wasser über lange Zeit aufrechterhalten werden konnte. Durch Zentrifugation konnten die Partikel zudem erfolgreich in verschiedene Größenfraktionen aufgetrennt werden. Dies ermöglichte die Bestimmung der idealen Aggregatgröße dieses Partikelsystems in Bezug auf die MPS-Performance. N2 - Magnetic nanoparticles have long been successfully implemented in the clinic as contrast agents for magnetic resonance imaging (MRI). Through optimization of the nanoparticles’ magnetic properties, an improvement in the resulting diagnostic images can be achieved, which in turn increases the diagnostic value of the MRI procedure. The advancement of diagnostic imaging is brought about not only through the improvement of established diagnostic techniques, but also through the development of new methodologies such as Magnetic Particle Imaging (MPI). In MPI, the measured signal arises directly from the magnetic particles and, thus, the technique holds great promise in terms of sensitivity and spatial resolution. Since there are currently no commercially available MPI tracers for in vivo use, the development of optimal tracer materials that are biocompatible and, thus, suitable for in vivo application, is becoming increasingly important. Therefore, the aim of this work was to develop biocompatible superparamagnetic iron oxide nanoparticles for application as an in vivo diagnostic agent in particular for MPI. Even though the focus lay on the development of an MPI tracer, the MR performance of the generated magnetic nanoparticles was also addressed, since such particles can be also be used as an MRI contrast agent with improved contrast efficacy. Synthesis of the superparamagnetic iron oxide nanoparticles was performed either via partial oxidation of precipitated iron (II) hydroxide and green rust or through a diffusion-controlled co-precipitation reaction in a hydrogel. The partial oxidation synthetic route gave rise to biocompatible and colloidally stable iron oxide nanoparticles. Furthermore, suitable methods for the formulation and sterilization of these particles were developed, enabling many of the prerequisites for successful in vivo application to be addressed. The resulting outstanding magnetic particle spectra (MPS) performance of the synthesized nanoparticles enables their suitability as an effective MPI tracer, assisting the advancement of the MPI technology. Moreover, the MR relaxivity values of the particles as well as results obtained from a preliminary in vivo MRI experiment revealed the high potential of the formulated nanoparticle suspensions for application as MRI contrast agents. In addition, chemical modification of the particle surface was performed, which enables the fabrication of target-specific nanoparticles as well as magnetic labeling of certain cell types e.g. stem cells. Nanoparticle synthesis via a diffusion-controlled co-precipitation strategy in a hydrogel, which is a bioinspired modification of the classical co-precipitation reaction, resulted in particles with a mean crystal diameter of 24 nm. Measurement of the MPS and MR performances of such electrostatically-stabilized particles revealed promising results. So as to promote the development of these particles for use as in vivo diagnostic agents, the particles were sterically stabilized and were found to be colloidally stable on the long-term in aqueous solution. Through centrifugation, the particles were successfully separated in batches of varying mean particle sizes, allowing for the determination of the ideal size of this particle system in terms of the MPS performance. KW - Magnetic Particle Imaging KW - Magnetresonanztomograpgie KW - magnetic resonance imaging KW - iron oxide nanoparticle KW - Eisenoxidnanopartikel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406196 ER - TY - THES A1 - Heise, Janine T1 - Phylogenetic and physiological characterization of deep-biosphere microorganisms in El’gygytgyn Crater Lake sediments T1 - Phylogenetische und physiologische Charakterisierung der Tiefen Biosphäre in El'gygytgyn Kraterseesedimenten N2 - The existence of diverse and active microbial ecosystems in the deep subsurface – a biosphere that was originally considered devoid of life – was discovered in multiple microbiological studies. However, most of the studies are restricted to marine ecosystems, while our knowledge about the microbial communities in the deep subsurface of lake systems and their potentials to adapt to changing environmental conditions is still fragmentary. This doctoral thesis aims to build up a unique data basis for providing the first detailed high-throughput characterization of the deep biosphere of lacustrine sediments and to emphasize how important it is to differentiate between the living and the dead microbial community in deep biosphere studies. In this thesis, up to 3.6 Ma old sediments (up to 317 m deep) of the El’gygytgyn Crater Lake were examined, which represents the oldest terrestrial climate record of the Arctic. Combining next generation sequencing with detailed geochemical characteristics and other environmental parameters, the microbial community composition was analyzed in regard to changing climatic conditions within the last 3.6 Ma to 1.0 Ma (Pliocene and Pleistocene). DNA from all investigated sediments was successfully extracted and a surprisingly diverse (6,910 OTUs) and abundant microbial community in the El’gygytgyn deep sediments were revealed. The bacterial abundance (10³-10⁶ 16S rRNA copies g⁻¹ sediment) was up to two orders of magnitudes higher than the archaeal abundance (10¹-10⁵) and fluctuates with the Pleistocene glacial/interglacial cyclicality. Interestingly, a strong increase in the microbial diversity with depth was observed (approximately 2.5 times higher diversity in Pliocene sediments compared to Pleistocene sediments). The increase in diversity with depth in the Lake El’gygytgyn is most probably caused by higher sedimentary temperatures towards the deep sediment layers as well as an enhanced temperature-induced intra-lake bioproductivity and higher input of allochthonous organic-rich material during Pliocene climatic conditions. Moreover, the microbial richness parameters follow the general trends of the paleoclimatic parameters, such as the paleo-temperature and paleo-precipitation. The most abundant bacterial representatives in the El’gygytgyn deep biosphere are affiliated with the phyla Proteobacteria, Actinobacteria, Bacteroidetes, and Acidobacteria, which are also commonly distributed in the surrounding permafrost habitats. The predominated taxon was the halotolerant genus Halomonas (in average 60% of the total reads per sample). Additionally, this doctoral thesis focuses on the live/dead differentiation of microbes in cultures and environmental samples. While established methods (e.g., fluorescence in situ hybridization, RNA analyses) are not applicable to the challenging El’gygytgyn sediments, two newer methods were adapted to distinguish between DNA from live cells and free (extracellular, dead) DNA: the propidium monoazide (PMA) treatment and the cell separation adapted for low amounts of DNA. The applicability of the DNA-intercalating dye PMA was successfully evaluated to mask free DNA of different cultures of methanogenic archaea, which play a major role in the global carbon cycle. Moreover, an optimal procedure to simultaneously treat bacteria and archaea was developed using 130 µM PMA and 5 min of photo-activation with blue LED light, which is also applicable on sandy environmental samples with a particle load of ≤ 200 mg mL⁻¹. It was demonstrated that the soil texture has a strong influence on the PMA treatment in particle-rich samples and that in particular silt and clay-rich samples (e.g., El’gygytgyn sediments) lead to an insufficient shielding of free DNA by PMA. Therefore, a cell separation protocol was used to distinguish between DNA from live cells (intracellular DNA) and extracellular DNA in the El’gygytgyn sediments. While comparing these two DNA pools with a total DNA pool extracted with a commercial kit, significant differences in the microbial composition of all three pools (mean distance of relative abundance: 24.1%, mean distance of OTUs: 84.0%) was discovered. In particular, the total DNA pool covers significantly fewer taxa than the cell-separated DNA pools and only inadequately represents the living community. Moreover, individual redundancy analyses revealed that the microbial community of the intra- and extracellular DNA pool are driven by different environmental factors. The living community is mainly influenced by life-dependent parameters (e.g., sedimentary matrix, water availability), while the extracellular DNA is dependent on the biogenic silica content. The different community-shaping parameters and the fact, that a redundancy analysis of the total DNA pool explains significantly less variance of the microbial community, indicate that the total DNA represents a mixture of signals of the live and dead microbial community. This work provides the first fundamental data basis of the diversity and distribution of microbial deep biosphere communities of a lake system over several million years. Moreover, it demonstrates the substantial importance of extracellular DNA in old sediments. These findings may strongly influence future environmental community analyses, where applications of live/dead differentiation avoid incorrect interpretations due to a failed extraction of the living microbial community or an overestimation of the past community diversity in the course of total DNA extraction approaches. N2 - Innerhalb der letzten 20 Jahre wurden diverse und aktive mikrobielle Gemeinschaften in zahlreichen Habitaten der tiefen Biosphäre gefunden, in denen zuvor kein Leben denkbar war. Die mikrobiologischen Untersuchungen beschränken sich dabei meist auf marine Ökosysteme, wohingegen das Wissen über die tiefe Biosphäre von Seesystemen und die Anpassung der Mikroorganismen an sich ändernde klimatische Bedingungen noch sehr eingeschränkt ist. Ziel dieser Arbeit ist es, die mikrobielle Gemeinschaftsstruktur der tiefen Biosphäre des El‘gygytgyn Kratersees in Hinblick auf klimatische Veränderungen der vergangenen 1,0 bis 3,6 Millionen Jahre zu charakterisieren, beeinflussende Umweltparameter zu detektieren und dabei zwischen der lebenden und toten mikrobiellen Gemeinschaft zu differenzieren. Die Seesedimente (43-317 m tief) weisen eine erstaunlich hohe Diversität (6910 OTUs) und Mikrobenfülle (10³-10⁶ bakterielle, 10¹-10⁵ archaeale 16S rRNA Kopien g⁻¹ Sediment) auf, wobei eine 2,5-fach höhere Diversität in den pliozänen Sedimenten im Vergleich zu den jüngeren pleistozänen Sedimenten detektiert werden konnte. Der Diversitätsanstieg mit zunehmendem Sedimentalter (und Tiefe) basiert höchstwahrscheinlich auf die erhöhte temperaturinduzierte Bioaktivität im See und dem erhöhten Eintrag von Organik reichen Material innerhalb des Pliozäns (feucht und warm). Die Unterscheidung zwischen der DNA lebender Mikroben (intrazellulare DNA) und freier DNA (extrazellulare DNA, meist von toten Mikroben) wurde durch die Adaption von zwei Extraktionsmethoden, der Behandlung mit Propidium-Monoazid (PMA) und der Zellseparation, erreicht. Dabei wurde ein PMA-Protokoll (130 µM PMA, 5 Min Lichtaktivierung mit blauen LEDs) zur erfolgreichen Behandlung von Reinkulturen methanogener Archaeen etabliert, das auch für sandige Umweltproben (Partikelbeladung ≤ 200 mg mL⁻¹) nutzbar ist. Für die feinporigeren Seesedimente des El’gygytgyn Kratersees wurden die zellseparierten DNA-Pools der iDNA und eDNA mit dem Gesamt-DNA-Extrakt (kommerzielles Kit) verglichen, wobei die DNA-Pools starke Unterschiede in ihrer Zusammensetzung aufzeigten (24,1% Distanz basierend auf relative Häufigkeiten) und der Gesamt-DNA-Extrakt die lebende mikrobielle Gemeinschaft nur unzureichend widerspiegeln konnte. Individuelle Redundanzanalysen (RDA) zeigten, dass die mikrobielle Gemeinschaft der iDNA von lebensbeeinflussenden Parametern abhängig ist (u.a. Sedimentmatrix, Wasserverfügbarkeit), wohingegen die der eDNA maßgeblich durch den Anteil an biogener Kieselerde (silica) beeinflusst wird. Diese Arbeit stellt die erste umfangreiche Datenbasis der Diversität und Verteilung von Mikroorganismengemeinschaften in der tiefen Biosphäre eines Seesystems über mehrere Millionen Jahre dar. Zusätzlich zeigt die Studie, dass die Lebend/Tot-Unterscheidung, mit dem ein höherer Anteil der Varianz innerhalb der Gemeinschaft durch Umweltparameter erklärt werden kann, im Vergleich zur Gesamt-DNA-Extraktion ein wesentlicher Schritt zur genauen Widerspiegelung der mikrobiellen Gemeinschaft und deren Funktion in der Tiefen Biosphäre ist. KW - Mikrobiologie KW - El`gygytgyn Kratersee KW - Tiefe Biosphäre KW - Diversität KW - microbiology KW - El’gygytgyn Crater Lake KW - diversity KW - deep biosphere Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403436 ER - TY - THES A1 - Hendriyana, Andri T1 - Detection and Kirchhoff-type migration of seismic events by use of a new characteristic function T1 - Detektion und Kirchhoff-Migration seismischer Ereignisse durch Verwendung einer neuen charakteristischen Funktion N2 - The classical method of seismic event localization is based on the picking of body wave arrivals, ray tracing and inversion of travel time data. Travel time picks with small uncertainties are required to produce reliable and accurate results with this kind of source localization. Hence recordings, with a low Signal-to-Noise Ratio (SNR) cannot be used in a travel time based inversion. Low SNR can be related with weak signals from distant and/or low magnitude sources as well as with a high level of ambient noise. Diffraction stacking is considered as an alternative seismic event localization method that enables also the processing of low SNR recordings by mean of stacking the amplitudes of seismograms along a travel time function. The location of seismic event and its origin time are determined based on the highest stacked amplitudes (coherency) of the image function. The method promotes an automatic processing since it does not need travel time picks as input data. However, applying diffraction stacking may require longer computation times if only limited computer resources are used. Furthermore, a simple diffraction stacking of recorded amplitudes could possibly fail to locate the seismic sources if the focal mechanism leads to complex radiation patterns which typically holds for both natural and induced seismicity. In my PhD project, I have developed a new work flow for the localization of seismic events which is based on a diffraction stacking approach. A parallelized code was implemented for the calculation of travel time tables and for the determination of an image function to reduce computation time. In order to address the effects from complex source radiation patterns, I also suggest to compute diffraction stacking from a characteristic function (CF) instead of stacking the original wave form data. A new CF, which is called in the following mAIC (modified from Akaike Information Criterion) is proposed. I demonstrate that, the performance of the mAIC does not depend on the chosen length of the analyzed time window and that both P- and S-wave onsets can be detected accurately. To avoid cross-talk between P- and S-waves due to inaccurate velocity models, I separate the P- and S-waves from the mAIC function by making use of polarization attributes. Then, eventually the final image function is represented by the largest eigenvalue as a result of the covariance analysis between P- and S-image functions. Before applying diffraction stacking, I also apply seismogram denoising by using Otsu thresholding in the time-frequency domain. Results from synthetic experiments show that the proposed diffraction stacking provides reliable results even from seismograms with low SNR=1. Tests with different presentations of the synthetic seismograms (displacement, velocity, and acceleration) shown that, acceleration seismograms deliver better results in case of high SNR, whereas displacement seismograms provide more accurate results in case of low SNR recordings. In another test, different measures (maximum amplitude, other statistical parameters) were used to determine the source location in the final image function. I found that the statistical approach is the preferred method particularly for low SNR. The work flow of my diffraction stacking method was finally applied to local earthquake data from Sumatra, Indonesia. Recordings from a temporary network of 42 stations deployed for 9 months around the Tarutung pull-apart Basin were analyzed. The seismic event locations resulting from the diffraction stacking method align along a segment of the Sumatran Fault. A more complex distribution of seismicity is imaged within and around the Tarutung Basin. Two lineaments striking N-S were found in the middle of the Tarutung Basin which support independent results from structural geology. These features are interpreted as opening fractures due to local extension. A cluster of seismic events repeatedly occurred in short time which might be related to fluid drainage since two hot springs are observed at the surface near to this cluster. N2 - Klassische seismologische Verfahren zur Lokalisierung seismischer Ereignisse basieren auf der Bestimmung der Ankunftszeiten von Raumwellenphasen, der Berechnung von Strahlwegen in Untergrundmodellen sowie der Inversion der Laufzeitdaten. Um mit dieser Methode zuverlässige und genaue Lokalisierungsergebnisse zu erhalten, werden Laufzeitdaten mit kleinen Unsicherheiten benötigt. Folgerichtig müssen Seismogramme mit sehr geringen Signal-zu-Rausch Verhältnissen (S/N) häufig verworfen werden. Geringe S/N können einerseits durch schwache Signale am Empfänger, z.B. wegen großer Entfernungen zur Quelle und/oder bei Quellen mit kleiner Magnitude, und andererseits durch einen hohen Rauschpegel verursacht werden. Eine alternative Methode zur Herdlokalisierung ist die sogenannte Diffraktions-Stapel-ung. Hierbei werden die Amplituden der aufgezeichneten Wellenformen entlang von vorhergesagten Laufzeitfunktionen aufgestapelt. Durch konstruktive Aufsummation können auch Signale von Seismogrammen mit geringem S/N zur Lokalisierung beitragen. Als Teil des Verfahrens wird eine sogenannte Image-Funktion berechnet, deren maximale Amplitude (Kohärenz) mit dem Ort und der Zeit des Bebenherdes verknüpft ist. Die Methodik ist für eine Implementation von automatisierten Überwachungssystemen geeignet. Von Nachteil ist der relative hohe Rechenaufwand. Außerdem müssen bei der Diffraktions-Stapelung die komplizierten Abstrahlcharakteristika im Quellbereich und deren Auswirkungen auf die Signale an verschiedenen Empfängern im Unterschied zur Laufzeit-Inversion mit berücksichtigt werden. In meiner Arbeit habe ich eine neue Methodik zur Lokalisierung von Bebenherden unter Verwendung einer Diffraktions-Stapelung entwickelt. Zunächst werden Laufzeiten (Green’s Funktionen) für potentielle Herdlokationen mit Hilfe eines parallelisierten Algorithmus berechnet. Eine erste Vorbearbeitung der Seismogramme mit der Otsu-Threshold-ing Methode im Zeit-Frequenz-Bereich dient zur Unterdrückung von nicht-stationären Rauschanteilen. Anschliessend wird eine neu entwickelte charakteristische Funktion (CF) berechnet, um P- und S-Welleneinsätze in den gefilterten Daten noch stärker hervorzuheben. Die vorgeschlagene CF basiert auf einer modifizierten Version des Akaike Kriteriums. Die neue CF liefert stabile Resultate, die im Unterschied zum klassischen Akaike-Kriterium nicht von der subjektiv festzulegenden Länge des Analysefensters abhängig sind. Die Verwendung der CF ist darüber hinaus entscheidend, um den unerwünschten Einfluss der Abstrahlcharakteristik auf die gemessenen Amplituden bei der Diffraktions-Stapelung zu eliminieren. Eine finale Image-Funktion wird mit Hilfe einer Kovarianzmatrix-Analyse von P- und S- Image-Funktionen bestimmt, um daraus schließlich die Herdlokation zu ermitteln. Das neue Verfahren wird an Hand von synthetischen Daten getestet. Zuverlässige und genaue Resultate konnten selbst bei sehr geringen S/N von 1 erzielt werden. Tests mit verschiedenen Seismogramm-Varianten (Verschiebung, Geschwindigkeit, Beschleunigung) ergaben, dass bei hohem S/N Beschleunigungs-Seismogramme und bei sehr niedrigen S/N Verschiebungs-Seismogramme die besten Ergebnisse lieferten. Schliesslich wurde das Verfahren auf Daten aus einer Lokalbebenuntersuchung auf Sumatra (Indonesien) angewendet. Über einen Zeitraum von 9 Monaten wurde mit einem Netzwerk aus 42 Stationen die Seismizität im Bereich des Tarutung-Beckens an der Sumatra-Störung (SF) erfasst. Die Methode bildete hierbei ein lineares Segment der SF ab. Im Tarutung-Becken wurde eine komplexere Bebenverteilung abgeleitet. Ein Vergleich mit strukturgeologischen Daten liefert Rückschlüsse auf das tektonische und geothermische Regime im Untersuchungsgebiet. KW - time-series analysis KW - inverse theory KW - earthquake source observations KW - seismicity and tectonics KW - wave scattering and diffraction KW - body waves KW - computational seismology KW - Zeitreihenanalyse KW - Inversions-Theorie KW - Beobachtung von Erdbebenquellen KW - Seismizität und Tektonik KW - Wellenbrechung und Diffraktion KW - Raumwellen KW - computergestützte Seismologie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398879 ER - TY - THES A1 - Hentrich, Doreen T1 - Grenzflächen-kontrollierte Mineralisation von Calciumphosphat T1 - Interface-controlled mineralization of calcium phosphate N2 - In der vorliegenden Arbeit konnte gezeigt werden, dass die beiden verwendeten Amphiphile mit Cholesterol als hydrophoben Block, gute Template für die Mineralisation von Calciumphosphat an der Wasser/Luft-Grenzfläche sind. Mittels Infrarot-Reflexions-Absorptions-Spektroskopie (IRRAS), Röntgenphotoelektronenspektroskopie (XPS), Energie dispersiver Röntgenspektroskopie (EDXS), Elektronenbeugung (SAED) und hochauflösende Transmissionselektronenmikroskopie (HRTEM) konnte die erfolgreiche Mineralisation von Calciumphosphat für beide Amphiphile an der Wasser/Luft-Grenzfläche nachgewiesen werden. Es konnte auch gezeigt werden, dass das Phasenverhalten der beiden Amphiphile und die bei der Mineralisation von Calciumphosphat gebildeten Kristallphasen nicht identisch sind. Beide Amphiphile üben demnach einen unterschiedlichen Einfluss auf den Mineralisationsverlauf aus. Beim CHOL-HEM konnte sowohl nach 3 h als auch nach 5 h Octacalciumphosphat (OCP) als einzige Kristallphase mittels XPS, SAED, HRTEM und EDXS nachgewiesen werden. Das A-CHOL hingegen zeigte bei der Mineralisation von Calciumphosphat nach 1 h zunächst eine nicht eindeutig identifizierbare Vorläuferphase aus amorphen Calciumphosphat, Brushit (DCPD) oder OCP. Diese wandelte sich dann nach 3 h und 5 h in ein Gemisch, bestehend aus OCP und ein wenig Hydroxylapatit (HAP) um. Die Schlussfolgerung daraus ist, dass das CHOL-HEM in der Lage ist, dass während der Mineralisation entstandene OCP zu stabilisieren. Dies geschieht vermutlich durch die Adsorption des Amphiphils bevorzugt an der OCP Oberfläche in [100] Orientierung. Dadurch wird die Spaltung entlang der c-Achse unterdrückt und die Hydrolyse zum HAP verhindert. Das A-CHOL ist hingegen sterisch anspruchsvoller und kann wahrscheinlich aufgrund seiner Größe nicht so gut an der OCP Kristalloberfläche adsorbieren verglichen zum CHOL HEM. Das CHOL-HEM kann also die Hydrolyse von OCP zu HAP besser unterdrücken als das A-CHOL. Da jedoch auch beim A-CHOL nach einer Mineralisationszeit von 5 h nur wenig HAP zu finden ist, wäre auch hier ein Stabilisierungseffekt der OCP Kristalle möglich. Um eine genaue Aussage darüber treffen zu können, sind jedoch zusätzliche Kontrollexperimente notwendig. Es wäre zum einen denkbar, die Mineralisationsexperimente über einen längeren Zeitraum durchzuführen. Diese könnten zeigen, ob das CHOL-HEM die Hydrolyse vom OCP zum HAP komplett unterdrückt. Außerdem könnte nachgewiesen werden, ob beim A-CHOL das OCP weiter zum HAP umgesetzt wird oder ob ein Gemisch beider Kristallphasen erhalten bleibt. Um die Mineralisation an der Wasser/Luft-Grenzfläche mit der Mineralisation in Bulklösung zu vergleichen, wurden zusätzlich Mineralisationsexperimente in Bulklösung durchgeführt. Dazu wurden Nitrilotriessigsäure (NTA) und Ethylendiamintetraessigsäure (EDTA) als Mineralisationsadditive verwendet, da NTA unter anderem der Struktur der hydrophilen Kopfgruppe des A-CHOLs ähnelt. Es konnte gezeigt werden, dass ein Vergleich der Mineralisation an der Grenzfläche mit der Mineralisation in Bulklösung nicht ohne weiteres möglich ist. Bei der Mineralisation in Bulklösung wird bei tiefen pH-Werten DCPD und bei höheren pH-Werten HAP gebildet. Diese wurde mittels Röntgenpulverdiffraktometrie Messungen nachgewiesen und durch Infrarotspektroskopie bekräftigt. Die Bildung von OCP wie an der Wasser/Luft-Grenzfläche konnte nicht beobachtet werden. Es konnte auch gezeigt werden, dass beide Additive NTA und EDTA einen unterschiedlichen Einfluss auf den Verlauf der Mineralisation nehmen. So unterscheiden sich zum einen die Morphologien des gebildeten DCPDs und zum anderen wurde beispielsweise in Anwesenheit von 10 und 15 mM NTA neben DCPD auch HAP bei einem Ausgangs-pH-Wert von 7 nachgewiesen. Da unser Augenmerk speziell auf der Mineralisation von Calciumphosphat an der Wasser/Luft-Grenzfläche liegt, könnten Folgeexperimente wie beispielsweise GIXD Messungen durchgeführt werden. Dadurch wäre es möglich, einen Überblick über die gebildeten Kristallphasen nach unterschiedlichen Reaktionszeiten direkt auf dem Trog zu erhalten. Es konnte weiterhin gezeigt werden, dass auch einfache Amphiphile in der Lage sind, die Mineralisation von Calciumphosphat zu steuern. Amphiphile mit Cholesterol als hydrophoben Block bilden offensichtlich besonders stabile Monolagen an der Wasser/Luft-Grenzfläche. Eine Untersuchung des Einflusses ähnlicher Amphiphile mit unterschiedlichen hydrophilen Kopfgruppen auf das Mineralisationsverhalten von Calciumphosphat wäre durchaus interessant. N2 - In the current thesis two amphiphiles were used as templates for the mineralization of calcium phosphate at the air-water interface. Both amphiphiles have a cholesteryl group as hydrophobic block and only differ in their hydrophilic unit. The amphiphile CHOL-HEM has one carboxylic acid as the hydrophilic unit and the amphiphile A-CHOL contains a Newkome type dendron as hydrophilic block. The successful mineralization of calcium phosphate at the air-water interface could be prove by infrared reflection absorption spectroscopy, X-ray photoelectron spectroscopy, energy-dispersive X-ray spectroscopy, selected area electron diffraction and high resolution transmission electron microscopy. Furthermore, the study shows that the two amphiphiles have a different influence on the mineralization leading to different calcium phosphate phases. The crystal phase formed in case of the CHOL-HEM is octacalcium phosphate (OCP). For the A-CHOL a precursor phase after 1 h mineralization time was formed which could not be identified clearly. The precursor phase could be amorphous calcium phosphate, dicalcium hydrogen phosphate dihydrate (DCPD) or OCP. This phase transformed into a mixture of OCP and a small amount of hydroxyapatite (HAP). In conclusion, it can be demonstrated that the CHOL-HEM is able to stabilize the OCP. This could happen by the adsorption of the amphiphile at the OCP crystal surface in [100] direction and therefore the splitting along the c-axis is hampered and the hydrolysis into HAP will be prevented. The hydrophilic block of the A-CHOL is much bigger and sterically more demanding. For that reason, the A-CHOL cannot adsorb at the OCP crystal surface as good as the CHOL-HEM. The CHOL-HEM can prevent the hydrolysis from OCP into HAP much more efficiently. Due to the fact, that after 5 h mineralization time using A-CHOL as template just a small amount of HAP could be identified suggests that also this amphiphile shows a stabilizing effect on the OCP crystals. To prove this, additional control experiments would be necessary. The A-CHOL shows a better control in terms of the orientation of the mineralized crystals, which could be mostly identified as OCP crystals in [110] and HAP crystals in [-110] orientation. For the CHOL-HEM no preferred orientation could be determined for the formed OCP crystals. Additional mineralization experiments in bulk solution using ethylenediaminetetraacetic acid disodium salt dihydrate (EDTA) and nitrilotriacetic acid (NTA) as mineralization additives were performed. The structure of the NTA is similar to the hydrophilic unit of the A-CHOL. The study shows that the comparison of the mineralization at the air-water interface with the mineralization in bulk solution is not easily possible. For the mineralization in bulk solution at low pH values DCPD and at high pH values HAP is formed. These two phases could be identified using X-ray powder diffraction and infrared spectroscopy. The formation of OCP like for the mineralization at the air-water interface could not be observed. Both additives, EDTA and NTA show a different influence on the mineralization progress and show for example different morphologies of the precipitated DCPD. KW - Calciumphosphat KW - Mineralisation KW - Wasser-Luft-Grenzfläche KW - calcium phosphate KW - mineralization KW - air-water interface Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398236 ER - TY - THES A1 - Herbrich, Marcus T1 - Einfluss der erosionsbedingten Pedogenese auf den Wasserund Stoffhaushalt ackerbaulich genutzter Böden der Grundmoränenbodenlandschaft NO-Deutschlands - hydropedologische Untersuchungen mittels wägbarer Präzisionslysimeter T1 - Effects of erosion-affected soil evolution on water and dissolved carbon fluxes, soil hydraulic properties, and crop development of soils from a hummocky ground moraine landscape - hydropedological analysis using high precision weighing lysimeters N2 - In the arable soil landscape of hummocky ground moraines, an erosion-affected spatial differentiation of soils can be observed. Man-made erosion leads to soil profile modifications along slopes with changed solum thickness and modified properties of soil horizons due to water erosion in combination with tillage operations. Soil erosion creates, thereby, spatial patterns of soil properties (e.g., texture and organic matter content) and differences in crop development. However, little is known about the manner in which water fluxes are affected by soil-crop interactions depending on contrasting properties of differently-developed soil horizons and how water fluxes influence the carbon transport in an eroded landscape. To identify such feedbacks between erosion-induced soil profile modifications and the 1D-water and solute balance, high-precision weighing lysimeters equipped with a wide range of sensor technique were filled with undisturbed soil monoliths that differed in the degree of past soil erosion. Furthermore, lysimeter effluent concentrations were analyzed for dissolved carbon fractions in bi-weekly intervals. The water balance components measured by high precision lysimeters varied from the most eroded to the less eroded monolith up to 83 % (deep drainage) primarily caused due to varying amounts of precipitation and evapotranspiration for a 3-years period. Here, interactions between crop development and contrasting rainfall interception by above ground biomass could explain differences in water balance components. Concentrations of dissolved carbon in soil water samples were relatively constant in time, suggesting carbon leaching was mainly affected by water fluxes in this observation period. For the lysimeter-based water balance analysis, a filtering scheme was developed considering temporal autocorrelation. The minute-based autocorrelation analysis of mass changes from lysimeter time series revealed characteristic autocorrelation lengths ranging from 23 to 76 minutes. Thereby, temporal autocorrelation provided an optimal approximation of precipitation quantities. However, the high temporal resolution in lysimeter time series is restricted by the lengths of autocorrelation. Erosion-induced but also gradual changes in soil properties were reflected by dynamics of soil water retention properties in the lysimeter soils. Short-term and long-term hysteretic water retention data suggested seasonal wettability problems of soils increasingly limited rewetting of previously dried pore regions. Differences in water retention were assigned to soil tillage operations and the erosion history at different slope positions. The threedimensional spatial pattern of soil types that result from erosional soil profile modifications were also reflected in differences of crop root development at different landscape positions. Contrasting root densities revealed positive relations of root and aboveground plant characteristics. Differences in the spatially-distributed root growth between different eroded soil types provided indications that root development was affected by the erosion-induced soil evolution processes. Overall, the current thesis corroborated the hypothesis that erosion-induced soil profile modifications affect the soil water balance, carbon leaching and soil hydraulic properties, but also the crop root system is influenced by erosion-induced spatial patterns of soil properties in the arable hummocky post glacial soil landscape. The results will help to improve model predictions of water and solute movement in arable soils and to understand interactions between soil erosion and carbon pathways regarding sink-or-source terms in landscapes. N2 - Hydropedologische Wechselwirkungen zwischen Wasserflüssen und erosionsbedingten Veränderungen im Profilaufbau ackerbaulich genutzter Böden treten insbesondere in der Jungmoränenlandschaft auf, die sich durch eine überwiegend flachwellige bis kuppige Topographie auszeichnet. Mit der dynamischen Veränderung von Bodenprofilen, wie etwa der veränderten Solumtiefe und Horizontabfolgen, sowie deren Verteilungen in der Landschaft gehen Veränderungen in den bodenhydraulischen Eigenschaften einher. Über deren Auswirkungen auf den Wasser- und Stoffhaushalt ist bislang nur wenig bekannt. Im Rahmen dieser Dissertation wurden kontinuierliche Messungen aus vier Jahren (2011 bis 2014) unter Verwendung von wägbaren Lysimetern in der ackerbaulich genutzten Bodenlandschaft Nordostdeutschlands (Uckermark) erhoben. Dabei sollte die zentrale Frage, inwieweit die erosionsbedingte Pedogenese, in Wechselwirkung mit der pflanzenbaulichen Nutzung, den Wasser- und Kohlenstoffhaushalt beeinflusst, beantwortet werden. Ziel dieser Arbeit war es, 1D-Wasserflüsse und Austräge an gelöstem Kohlenstoff für unterschiedlich erodierte Bodenprofile zu quantifizieren. Damit einhergehend wurden Untersuchungen zu hydraulischen Bodeneigenschaften sowie möglichen Veränderungen im System Boden-Pflanze (Wurzeluntersuchungen) durchgeführt. Um derartige Veränderungen zwischen unterschiedlich erodierten Böden beschreiben zu können, wurden Bodenmonolithe in ungestörter Lagerung entnommen und in Lysimeteranlagen installiert. Zudem erfolgte eine Instrumentierung der einzelnen Lysimeter mit verschiedener Sensorik, u.a. um Wassergehalte und Matrixpotentiale zu messen. Für stoffhaushaltliche Untersuchungen wurden darüber hinaus Konzentrationen der gelösten Kohlenstofffraktion in der Bodenlösung in 14-tägigen Intervallen bestimmt. Der Wasserhaushalt von sechs gering bis stark erodierten Parabraunerden unterschied sich im Hinblick auf die bilanzierten Wasserhaushaltskomponenten deutlich. Anhand dieser Ergebnisse liegt die Vermutung nahe, dass die dynamischen Veränderungen im Gefüge- und Profilaufbau (in Abhängigkeit von der Bodenerosion) einen Effekt auf die Wasserbilanzen aufweisen. Über die mehrjährige Messperiode von 2011 bis 2014 konnte für das mit einer stark erodierten Parabraunerde gefüllte Lysimeter ein circa 83 Prozent höherer Abfluss als für das Lysimeter mit einer wenig erodierten Parabraunerde gemessen werden. Somit variierte der Abfluss am unteren Rand in Abhängigkeit zum Erosionsgrad. Neben dem unterschiedlichen Abflussverhalten variierten die Bodenmonolithe innerhalb der Lysimeter ebenfalls in den Evapotranspirations- und Niederschlagsmengen, hervorgerufenen durch die Differenzierung in den Horizontabfolgen, -mächtigkeiten und deren Einfluss auf die bodenhydraulischen Eigenschaften in Abhängigkeit vom Pflanzenbewuchs. Aufgrund der homogen verteilten Stoffkonzentrationen des gelösten organischen und anorganischen Kohlenstoffs am unteren Rand waren Kohlenstoffausträge maßgeblich von den Wasserflüssen abhängig. Als Grundlage der Lysimeter-basierten Wasserhaushaltsanalyse diente ein im Rahmen dieser Dissertation entwickeltes Auswertungsverfahren von kontinuierlichen Gewichtsänderungen unter Berücksichtigung der zeitlichen Autokorrelation. Um eine mögliche Periodizität in zeitlich hochaufgelösten Änderungen des Lysimeterwaagensystems zu ermitteln, fand eine Autokorrelationsfunktion in der Zeitreihenanalyse von vier saisonalen Messzeiträumen Anwendung. Die Ergebnisse der Arbeit deuten darauf hin, dass hochaufgelöste Lysimeterzeitreihen in einem Bereich von circa 30 min bis circa 60 min zeitlich autokorreliert sind. Die ermittelten Autokorrelationslängen bieten wiederum eine Möglichkeit zur Annäherung von (optimalen) Zeitintervallen für die Niederschlagsberechnung, basierend auf Änderungen in den Wiegedaten. Im Vergleich zu einem Kippwaagenregenmesser nahe der Lysimeterstation überstiegen die ermittelten Niederschlagsmengen der Lysimeter in Bodennähe die der in zwei Metern Höhe erfolgten Messung deutlich. Zur Charakterisierung der zeitlichen (Hysterese), als auch räumlichen (erosionsbedingter Pedogenese) Veränderungen der bodenhydraulischen Eigenschaften der Lysimeterböden wurden kontinuierliche Datenreihen des Wassergehaltes und Matrixpotentials analysiert. Die daraus abgeleiteten Wasserretentionskurven wurden in 3 Messtiefen (10, 30, 50 cm) unter Feldbedingungen ausgewertet und mit Labormessungen von Bodenkernen verglichen. Sowohl zwischen den unterschiedlich erodierten Bodenprofilen als auch zwischen den Feld- und Labormessungen waren Unterschiede in den Wasserretentionseigenschaften ersichtlich. Innerhalb eines Jahres (eingeschränkte Benetzbarkeit) sowie zwischen den Jahren (Veränderung der Porenmatrix) zeigten die Ergebnisse zudem eine zeitliche Veränderung der Wasserretentionseigenschaften. Diese dynamische Variabilität der Wasserretention wiederum unterliegt der räumlichen Heterogenität von Bodeneigenschaften, wie Textur und Lagerungsdichte. Für die Interpretation der unterschiedlichen bodenhydraulischen Eigenschaften sowie im Hinblick auf Veränderungen im Wasserhaushalt von ackerbaulich genutzten Lysimetern spielt das System Boden-Pflanze eine bedeutende Rolle. Diesbezüglich wurden Biomasse- und Wurzeluntersuchungen an unterschiedlich erodierten Böden durchgeführt. Die erzielten Ergebnisse verdeutlichen, dass erosionsbedingte Veränderungen im Profilaufbau beziehungsweise Horizonteigenschaften die Wurzelentwicklung beeinflussen können. Zudem stehen die Durchwurzelungsraten an grundwasserbeeinflussten Senkenstandorten in enger Beziehung zum Grundwasserstand (insbesondere im Frühjahr). Die oberirdisch beobachteten Unterschiede in der Biomasse korrelierten stark mit den ermittelten Wurzeldichten (Winterweizen), dies lässt vermuten, dass eine Abschätzung der Wurzelentwicklung mittels oberirdischer Biomasse möglich ist. Zusammenfassend zeigen die Ergebnisse der vorliegenden Lysimeterstudie komplexe Wechselwirkungen zwischen dem pedogenetischen Zustand erodierter Böden und dem Wasserhaushalt, den bodenhydraulischen Eigenschaften sowie der Wurzelentwicklung angebauter Kulturen. Zudem leisten die ermittelten unterschiedlichen Austragsraten an gelöstem Kohlenstoff einen Beitrag zur Abschätzung der langfristigen, in die Tiefe fortschreitenden Entkalkung sowie zur Beantwortung der Fragestellung, ob ackerbaulich genutzte Böden eher als Quell- oder als Senkenterm für Kohlendioxid fungieren. KW - Lysimeter KW - Wasserhaushalt KW - Kohlenstoff KW - lysimeter KW - water balance KW - carbon Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408561 ER - TY - THES A1 - Hethey, Christoph Philipp T1 - Cell physiology based pharmacodynamic modeling of antimicrobial drug combinations T1 - Zellphysiologie-basierte pharmakodynamische Modellierung von antimikrobiellen Wirkstoffkombinationen N2 - Mathematical models of bacterial growth have been successfully applied to study the relationship between antibiotic drug exposure and the antibacterial effect. Since these models typically lack a representation of cellular processes and cell physiology, the mechanistic integration of drug action is not possible on the cellular level. The cellular mechanisms of drug action, however, are particularly relevant for the prediction, analysis and understanding of interactions between antibiotics. Interactions are also studied experimentally, however, a lacking consent on the experimental protocol hinders direct comparison of results. As a consequence, contradictory classifications as additive, synergistic or antagonistic are reported in literature. In the present thesis we developed a novel mathematical model for bacterial growth that integrates cell-level processes into the population growth level. The scope of the model is to predict bacterial growth under antimicrobial perturbation by multiple antibiotics in vitro. To this end, we combined cell-level data from literature with population growth data for Bacillus subtilis, Escherichia coli and Staphylococcus aureus. The cell-level data described growth-determining characteristics of a reference cell, including the ribosomal concentration and efficiency. The population growth data comprised extensive time-kill curves for clinically relevant antibiotics (tetracycline, chloramphenicol, vancomycin, meropenem, linezolid, including dual combinations). The new cell-level approach allowed for the first time to simultaneously describe single and combined effects of the aforementioned antibiotics for different experimental protocols, in particular different growth phases (lag and exponential phase). Consideration of ribosomal dynamics and persisting sub-populations explained the decreased potency of linezolid on cultures in the lag phase compared to exponential phase cultures. The model captured growth rate dependent killing and auto-inhibition of meropenem and - also for vancomycin exposure - regrowth of the bacterial cultures due to adaptive resistance development. Stochastic interaction surface analysis demonstrated the pronounced antagonism between meropenem and linezolid to be robust against variation in the growth phase and pharmacodynamic endpoint definition, but sensitive to a change in the experimental duration. Furthermore, the developed approach included a detailed representation of the bacterial cell-cycle. We used this representation to describe septation dynamics during the transition of a bacterial culture from the exponential to stationary growth phase. Resulting from a new mechanistic understanding of transition processes, we explained the lag time between the increase in cell number and bacterial biomass during the transition from the lag to exponential growth phase. Furthermore, our model reproduces the increased intracellular RNA mass fraction during long term exposure of bacteria to chloramphenicol. In summary, we contribute a new approach to disentangle the impact of drug effects, assay readout and experimental protocol on antibiotic interactions. In the absence of a consensus on the corresponding experimental protocols, this disentanglement is key to translate information between heterogeneous experiments and also ultimately to the clinical setting. N2 - Der Zusammenhang zwischen antibiotischer Exposition und antibakterieller Wirkung wird derzeitlich erfolgreich mithilfe von mathematischen Bakterienwachstumsmodellen studiert. Üblicherweise ignorieren diese Modelle jedoch die bakterielle Physiologie und Prozesse auf Zellebene. Es folgt, dass das mechanistische Einbinden von Wirkstoffeffekten auf Zellebene nicht möglich ist. Jedoch ist der zelluläre Wirkmechanismus besonders relevant für die Vorhersage, die Analyse und das Verständnis von Antibiotikainteraktionen. Leider gibt es keinen Konsens bezüglich des experimentellen Protokolls, um diese Interaktionen zu untersuchen. Das ist einer der Gründe, warum wir in der Literatur widersprüchliche Klassifizierungen von Antibiotikainteraktionen als additiv, synergistisch oder antagonistisch finden. In der vorliegenden Arbeit entwickelten wir ein neuartiges mathematisches Bakterienwachstumsmodel, welches Prozesse auf Zellebene in das Populationswachstum einbindet. Der Anwendungszweck dieses Models ist die Vorhersage bakteriellen Wachstums unter antimikrobieller Mehrfachexposition in vitro. Um das zu erreichen, kombinierten wir die Zellebene beschreibende Daten aus der Literatur mit Wachstumsdaten für Bacillus subtilis, Escherichia coli und Staphylococcus aureus. Die die Zellebene beschreibenden Daten bezogen sich auf Wachstums-bestimmende Charakteristika einer Referenzzelle, unter anderem auf die ribosomale Konzentration und Effizienz. Die Wachstumsdaten beinhalteten umfangreiche Zeit-Absterbe-Kurven für klinisch relevante Antibiotika (Tetracyclin, Chloramphenicol, Vancomycin, Meropenem, Linezolid) und Zweifachkombinationen aus diesen. Der neue Zellebenen-Ansatz erlaubt es erstmalig, einzelne und kombinierte Effekte der erwähnten Antibiotika für unterschiedliche experimentelle Protokolle gleichzeitig zu beschreiben. Insbesondere beziehen sich diese Unterschiede auf die Wachstumsphasen (Lag oder exponentiellen Phase). Die Berücksichtigung der ribosomalen Konzentration und persistenter Subpopulationen erklärte die verminderte Potenz von Linezolid gegen Kulturen in der Lag Phase im Vergleich zu Kulturen, die sich in der exponentiellen Phase befanden. Das Model erfasst Wachstumsraten-abhängiges Zelltöten und die Selbstinhibierung von Meropenem und - ebenso für Vancomycin - ein Wiederanwachsen der bakteriellen Kulturen aufgrund von adaptiver Resistenzentwicklung. Stochastische Analysen der Interaktionsoberflächen zeigen, dass der ausgeprägte Antagonismus zwischen Meropenem und Linezolid zwar robust gegenüber Variation der Wachstumsphase und der Definition des pharmakodynamischen Endpunktes reagiert, jedoch empfindlich von der Zeitspanne des Experiments beeinflusst wird. Desweiteren enthält der entwickelte Ansatz eine detaillierte Repräsentation des bakteriellen Zellzyklus. Wir nutzten diese Repräsentation, um Septierungsdynamiken während des Übergangs einer bakteriellen Kultur aus der exponentiellen Phase in die stationäre Phase zu beschreiben. Basierend auf einem neugewonnenen mechanistischen Verständnis für diese Übergänge, konnten wir außerdem die zeitliche Verzögerung erklären, die zwischen dem Anstieg der Zellanzahl und der Biomasse während des Übergangs von Lag zu exponentieller Phase auftritt. Außerdem reproduziert unser Modell den erhöhten intrazellulären RNA Massenanteil, der auftritt, wenn Bakterien Chloramphenikol ausgesetzt werden. Zusammenfassend steuern wir einen neuen Ansatz bei, der es erlaubt, die Einflüsse von Wirkstoffeffekten, Endpunktdefinitionen und des experimentellen Protokolls zu entflechten. Da kein Konsens hinsichtlich eines entsprechenden experimentellen Protokolls existiert, ist eine solche Entflechtung der Schlüssel, um Informationen zwischen unterschiedlichen Experimenten - und letztendlich auch in die Klinik - zu transferieren. KW - antibiotic combinations KW - bacterial population growth KW - pharmacodynamics KW - drug drug interactions KW - time-kill curves KW - ribosomal dynamics KW - Antibiotika KW - Wirkstoffinteraktionen KW - Pharmakodynamik KW - mathematische Modellierung KW - mathematical modelling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401056 ER - TY - THES A1 - Hochrein, Lena T1 - Development of a new DNA-assembly method and its application for the establishment of a red light-sensing regulation system T1 - Entwicklung einer neuartigen DNS-Assemblierungsmethode und ihre Anwendung für die Etablierung eines Rotlicht-responsiven Regulierungssystems N2 - In der hier vorgelegten Doktorarbeit wurde eine Strategie zur schnellen, einfachen und zuverlässigen Assemblierung von DNS-Fragmenten, genannt AssemblX, entwickelt. Diese kann genutzt werden, um komplexe DNS-Konstrukte, wie beispielsweise komplette Biosynthesewege, aufzubauen. Dies dient der Produktion von technisch oder medizinisch relevanten Produkten in biotechnologisch nutzbaren Organismen. Die Vorteile der Klonierungsstrategie liegen in der Schnelligkeit der Klonierung, der Flexibilität bezüglich des Wirtsorganismus, sowie der hohen Effektivität, die durch gezielte Optimierung erreicht wurde. Die entwickelte Technik erlaubt die nahtlose Assemblierung von Genfragmenten und bietet eine Komplettlösung von der Software-gestützten Planung bis zur Fertigstellung von DNS-Konstrukten, welche die Größe von Mini-Chromosomen erreichen können. Mit Hilfe der oben beschriebenen AssemblX Strategie wurde eine optogenetische Plattform für die Bäckerhefe Saccharomyces cerevisiae etabliert. Diese besteht aus einem Rotlicht-sensitiven Photorezeptor und seinem interagierenden Partner aus Arabidopsis thaliana, welche in lichtabhängiger Weise miteinander agieren. Diese Interaktion wurde genutzt, um zwei Rotlicht-aktivierbare Proteine zu erstellen: Einen Transkriptionsfaktor, der nach Applikation eines Lichtpulses die Produktion eines frei wählbaren Proteins stimuliert, sowie eine Cre Rekombinase, die ebenfalls nach Bestrahlung mit einer bestimmten Wellenlänge die zufallsbasierte Reorganisation bestimmter DNS-Konstrukte ermöglicht. Zusammenfassend wurden damit drei Werkzeuge für die synthetische Biologie etabliert. Diese ermöglichen den Aufbau von komplexen Biosynthesewegen, deren Licht-abhängige Regulation, sowie die zufallsbasierte Rekombination zu Optimierungszwecken. N2 - With Saccharomyces cerevisiae being a commonly used host organism for synthetic biology and biotechnology approaches, the work presented here aims at the development of novel tools to improve and facilitate pathway engineering and heterologous protein production in yeast. Initially, the multi-part assembly strategy AssemblX was established, which allows the fast, user-friendly and highly efficient construction of up to 25 units, e.g. genes, into a single DNA construct. To speed up complex assembly projects, starting from sub-gene fragments and resulting in mini-chromosome sized constructs, AssemblX follows a level-based approach: Level 0 stands for the assembly of genes from multiple sub-gene fragments; Level 1 for the combination of up to five Level 0 units into one Level 1 module; Level 2 for linkages of up to five Level 1 modules into one Level 2 module. This way, all Level 0 and subsequently all Level 1 assemblies can be carried out simultaneously. Individually planned, overlap-based Level 0 assemblies enable scar-free and sequence-independent assemblies of transcriptional units, without limitations in fragment number, size or content. Level 1 and Level 2 assemblies, which are carried out via predefined, computationally optimized homology regions, follow a standardized, highly efficient and PCR-free scheme. AssemblX follows a virtually sequence-independent scheme with no need for time-consuming domestication of assembly parts. To minimize the risk of human error and to facilitate the planning of assembly projects, especially for individually designed Level 0 constructs, the whole AssemblX process is accompanied by a user-friendly webtool. This webtool provides the user with an easy-to-use operating surface and returns a bench-protocol including all cloning steps. The efficiency of the assembly process is further boosted through the implementation of different features, e.g. ccdB counter selection and marker switching/reconstitution. Due to the design of homology regions and vector backbones the user can flexibly choose between various overlap-based cloning methods, enabling cost-efficient assemblies which can be carried out either in E. coli or yeast. Protein production in yeast is additionally supported by a characterized library of 40 constitutive promoters, fully integrated into the AssemblX toolbox. This provides the user with a starting point for protein balancing and pathway engineering. Furthermore, the final assembly cassette can be subcloned into any vector, giving the user the flexibility to transfer the individual construct into any host organism different from yeast. As successful production of heterologous compounds generally requires a precise adjustment of protein levels or even manipulation of the host genome to e.g. inhibit unwanted feedback regulations, the optogenetic transcriptional regulation tool PhiReX was designed. In recent years, light induction was reported to enable easy, reversible, fast, non-toxic and nearly gratuitous regulation, thereby providing manifold advantages compared to conventional chemical inducers. The optogenetic interface established in this study is based on the photoreceptor PhyB and its interacting protein PIF3. Both proteins, derived from Arabidopsis thaliana, dimerize in a red/far-red light-responsive manner. This interaction depends on a chromophore, naturally not available in yeast. By fusing split proteins to both components of the optical dimerizer, active enzymes can be reconstituted in a light-dependent manner. For the construction of the red/far-red light sensing gene expression system PhiReX, a customizable synTALE-DNA binding domain was fused to PhyB, and a VP64 activation domain to PIF3. The synTALE-based transcription factor allows programmable targeting of any desired promoter region. The first, plasmid-based PhiReX version mediates chromophore- and light-dependent expression of the reporter gene, but required further optimization regarding its robustness, basal expression and maximum output. This was achieved by genome-integration of the optical regulator pair, by cloning the reporter cassette on a high-copy plasmid and by additional molecular modifications of the fusion proteins regarding their cellular localization. In combination, this results in a robust and efficient activation of cells over an incubation time of at least 48 h. Finally, to boost the potential of PhiReX for biotechnological applications, yeast was engineered to produce the chromophore. This overcomes the need to supply the expensive and photo-labile compound exogenously. The expression output mediated through PhiReX is comparable to the strong constitutive yeast TDH3 promoter and - in the experiments described here - clearly exceeds the commonly used galactose inducible GAL1 promoter. The fast-developing field of synthetic biology enables the construction of complete synthetic genomes. The upcoming Synthetic Yeast Sc2.0 Project is currently underway to redesign and synthesize the S. cerevisiae genome. As a prerequisite for the so-called “SCRaMbLE” system, all Sc2.0 chromosomes incorporate symmetrical target sites for Cre recombinase (loxPsym sites), enabling rearrangement of the yeast genome after induction of Cre with the toxic hormonal substance beta-estradiol. To overcome the safety concern linked to the use of beta-estradiol, a red light-inducible Cre recombinase, dubbed L-SCRaMbLE, was established in this study. L-SCRaMbLE was demonstrated to allow a time- and chromophore-dependent recombination with reliable off-states when applied to a plasmid containing four genes of the beta-carotene pathway, each flanked with loxPsym sites. When directly compared to the original induction system, L-SCRaMbLE generates a larger variety of recombination events and lower basal activity. In conclusion, L-SCRaMbLE provides a promising and powerful tool for genome rearrangement. The three tools developed in this study provide so far unmatched possibilities to tackle complex synthetic biology projects in yeast by addressing three different stages: fast and reliable biosynthetic pathway assembly; highly specific, orthogonal gene regulation; and tightly controlled synthetic evolution of loxPsym-containing DNA constructs. KW - synthetic biology KW - pathway engineering KW - DNA assembly KW - transcription factor KW - Cre recombinase KW - optogenetics KW - synthetische Biologie KW - Optimierung von Biosynthesewegen KW - DNS Assemblierung KW - Transkriptionsfaktor KW - Cre Rekombinase KW - Optogenetik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404441 ER - TY - THES A1 - Hoffmann, Lars T1 - Lehrkräfte als Diagnostikerinnen und Diagnostiker T1 - Teachers as diagnosticians BT - Untersuchungen zu ausgewählten Tätigkeiten von Grundschullehrerinnen und Grundschullehrern im Bereich der pädagogisch-psychologischen Diagnostik BT - empirical studies on selected tasks of elementary school teachers in the domain of educational-psychological diagnostics N2 - Im Fokus der kumulativen Dissertationsschrift stehen Grundschullehrerinnen und Grundschullehrer in ihrer Rolle als Diagnostikerinnen und Diagnostiker. Exemplarisch werden mit der Einschätzung von Aufgabenschwierigkeiten und der Feststellung von Sprachförderbedarf zwei diagnostische Herausforderungen untersucht, die Lehrkräfte an Grundschulen bewältigen müssen. Die vorliegende Arbeit umfasst drei empirische Teilstudien, die in einem Rahmentext integriert sind, in dem zunächst die theoretischen Hintergründe und die empirische Befundlage erläutert werden. Hierbei wird auf die diagnostische Kompetenz von Lehrkräften bzw. die Genauigkeit von Lehrerurteilen eingegangen. Ferner wird der Einsatz standardisierter Testinstrumente als wichtiger Bestandteil des diagnostischen Aufgabenfeldes von Lehrkräften charakterisiert. Außerdem werden zentrale Aspekte der Sprachdiagnostik in der Grundschule dargestellt. In Teilstudie 1 (Hoffmann & Böhme, 2014b) wird der Frage nachgegangen, wie akkurat Grundschullehrerinnen und -lehrer die Schwierigkeit von Deutsch- und Mathematikaufgaben einschätzen. Darüber hinaus wird untersucht, welche Faktoren mit der Über- oder Unterschätzung der Schwierigkeit von Aufgaben zusammenhängen. In Teilstudie 2 (Hoffmann & Böhme, 2017) wird geprüft, inwiefern die Klassifikationsgüte von Entschei¬dungen zum sprachlichen Förderbedarf mit den hierfür genutzten diagnostischen Informationsquellen kovariiert. Der Fokus liegt hierbei vor allem auf der Untersuchung von Effekten des Einsatzes von sprachdiagnostischen Verfahren. Teilstudie 3 (Hoffmann, Böhme & Stanat, 2017) untersucht schließlich die Frage, welche diagnostischen Verfahren gegenwärtig bundesweit an den Grundschulen zur Feststellung sprachlichen Förderbedarfs genutzt werden und ob diese Verfahren etwa testtheoretischen Gütekriterien genügen. Die zentralen Ergebnisse der Teilstudien werden im Rahmentext zusammen¬gefasst und studienübergreifend diskutiert. Hierbei wird auch auf methodische Stärken und Schwächen der drei Beiträge sowie auf Implikationen für die zukünftige Forschung und die schulische Praxis hingewiesen. N2 - The cumulative doctoral thesis focusses on elementary school teachers and their role as diagnosticians. Two diagnostic challenges that teachers in elementary schools typically have to manage are investigated: judging task difficulty and identifying children with a particular need for language support. The present thesis consists of three empirical articles that are embedded in a framing text which at first outlines theoretical backgrounds and empirical findings and then elaborates on teachers’ diagnostic skills and on the accuracy of teachers’ judgments. Furthermore, the application of standardized tests is characterized as an important element of teachers’ field of work. Additionally, central aspects of language diagnostics in elementary schools are illustrated. The first article (Hoffmann & Böhme, 2014b) investigates the accuracy of elementary school teachers’ difficulty judgments of German language and mathematics tasks. The article furthermore addresses the question of what factors are correlated with the over- and underestimation of task difficulty. The second article (Hoffmann & Böhme, 2017) examines whether the classification accuracy of decisions on the need for language support covaries with the use of specific diagnostic information sources. The article puts a special focus on effects of the administration of particular diagnostic instruments (e. g., tests). The third article (Hoffmann, Böhme & Stanat, 2017) finally addresses the question what diagnostic instruments are currently used in elementary schools throughout Germany to identify a need for language support and whether these instruments (for example) match test theoretical quality criteria. Finally, the central results of the three articles are summarized and reflected in an overall discussion that outlines methodical strengths and weaknesses of each study as well as implications for future research and practical implications for schools. KW - diagnostische Kompetenz KW - Urteilsgenauigkeit KW - Sprachdiagnostik KW - sprachdiagnostische Verfahren KW - Klassifikationsgüte KW - diagnostic competence KW - teacher judgment accuracy KW - language diagnostics KW - diagnostic instruments for language assessment KW - classification accuracy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404584 ER - TY - THES A1 - Holzgrefe-Lang, Julia T1 - Prosodic phrase boundary perception in adults and infants T1 - Die Wahrnehmung prosodischer Phrasengrenzen bei Erwachsenen und Säuglingen BT - what the brain reveals about contextual influence and the impact of prosodic cues N2 - Prosody is a rich source of information that heavily supports spoken language comprehension. In particular, prosodic phrase boundaries divide the continuous speech stream into chunks reflecting the semantic and syntactic structure of an utterance. This chunking or prosodic phrasing plays a critical role in both spoken language processing and language acquisition. Aiming at a better understanding of the underlying processing mechanisms and their acquisition, the present work investigates factors that influence prosodic phrase boundary perception in adults and infants. Using the event-related potential (ERP) technique, three experimental studies examined the role of prosodic context (i.e., phrase length) in German phrase boundary perception and of the main prosodic boundary cues, namely pitch change, final lengthening, and pause. With regard to the boundary cues, the dissertation focused on the questions which cues or cue combination are essential for the perception of a prosodic boundary and on whether and how this cue weighting develops during infancy. Using ERPs is advantageous because the technique captures the immediate impact of (linguistic) information during on-line processing. Moreover, as it can be applied independently of specific task demands or an overt response performance, it can be used with both infants and adults. ERPs are particularly suitable to study the time course and underlying mechanisms of boundary perception, because a specific ERP component, the Closure Positive Shift (CPS) is well established as neuro-physiological indicator of prosodic boundary perception in adults. The results of the three experimental studies first underpin that the prosodic context plays an immediate role in the processing of prosodic boundary information. Moreover, the second study reveals that adult listeners perceive a prosodic boundary also on the basis of a sub-set of the boundary cues available in the speech signal. Both ERP and simultaneously collected behavioral data (i.e., prosodic judgements) suggest that the combination of pitch change and final lengthening triggers boundary perception; however, when presented as single cues, neither pitch change nor final lengthening were sufficient. Finally, testing six- and eight-month-old infants shows that the early sensitivity for prosodic information is reflected in a brain response resembling the adult CPS. For both age groups, brain responses to prosodic boundaries cued by pitch change and final lengthening revealed a positivity that can be interpreted as a CPS-like infant ERP component. In contrast, but comparable to the adults’ response pattern, pitch change as a single cue does not provoke an infant CPS. These results show that infant phrase boundary perception is not exclusively based on pause detection and hint at an early ability to exploit subtle, relational prosodic cues in speech perception. N2 - Die Wahrnehmung prosodischer Phrasengrenzen spielt eine zentrale Rolle sowohl im frühen Spracherwerb als auch bei der auditiven Sprachperzeption: Prosodische Grenzmarkierungen sind insbesondere relevant, da sie den Sprachstrom gliedern (so genanntes chunking), dabei die syntaktische Struktur einer Äußerung widerspiegeln und zusammenhängende Sinneinheiten erkennbar machen. Um die der Verarbeitung prosodischer Information zugrunde liegenden Mechanismen und deren Erwerb besser charakterisieren zu können, befasst die vorliegende Dissertation mit Faktoren, die die Wahrnehmung prosodischer Grenzmarkierungen bei Erwachsenen und Säuglingen beeinflussen. Mithilfe der Erhebung Ereigniskorrelierter Hirnpotentiale (EKPs) wurde untersucht, welche Rolle der prosodische Kontext (hier: die Phrasenlänge) sowie die an Phrasengrenzen auftretenden Hinweisreize (sogenannte prosodische Cues) bei der Wahrnehmung prosodischer Grenzen im Deutschen spielen. Die untersuchten prosodischen Cues umfassen das Auftreten von Tonhöhenveränderung (pitch change) und finaler Dehnung (final lengthening) sowie Pausensetzung (pause). Es wurde hierbei der Frage nachgegangen, welche Cues oder Cue-Kombinationen für die Wahrnehmung einer Phrasengrenze relevant sind und ob bzw. wie sich diese Gewichtung im Säuglingsalter entwickelt. EKPs sind insbesondere geeignet, da sie als on-line Methode die unmittelbare Integration prosodischer Information beim Sprachverstehen erfassen und sowohl bei Erwachsenen als auch bei Säuglingen angewendet werden können. Zudem gibt es mit dem closure positive shift (CPS) eine als Korrelat der Wahrnehmung größerer prosodischer Grenzen etablierte EKP-Komponente. Die Ergebnisse der drei experimentellen Studien untermauern, dass der Äußerungskontext eine unmittelbare Rolle bei der Verarbeitung von prosodischen Grenzmarkierungen spielt. Darüber hinaus konnte gezeigt werden, dass erwachsene Hörer eine prosodische Grenze auch basierend auf einem Sub-Set der möglichen, im akustischen Signal verfügbaren, prosodischen Cues wahrnehmen: Die Kombination von Tonhöhenveränderung und finaler Dehnung ist ausreichend, um die Wahrnehmung einer Phrasengrenze zu evozieren; als alleinige Cues sind jedoch weder Tonhöhenveränderung noch finale Dehnung hinreichend. Dies offenbarte sich sowohl im Ausbleiben des CPS als auch in simultan erhobenen Verhaltensdaten (Beurteilung der prosodischen Struktur). Schließlich ergab die Untersuchung sechs- und achtmonatiger Säuglinge, dass sich die frühe Sensitivität für prosodische Informationen in einem neurophysiologischen Korrelat widerspiegelt, welches dem CPS bei Erwachsenen gleicht. Die EKP-Daten zeigten, dass sowohl sechs- als auch achtmonatige Säuglinge prosodische Phrasengrenzen anhand der Kombination von Tonhöhenveränderung und finaler Dehnung wahrnehmen, wohingegen die Tonhöhenveränderung allein auch bei Säuglingen keinen CPS auslöst. Bereits in diesem frühen Alter ist somit die Pause als Grenzmarkierung nicht zwingend erforderlich. KW - speech perception KW - language acquisition KW - prosody KW - event-related potentials (ERP) KW - prosodic phrase boundaries KW - prosodic boundary cues KW - Closure Positive Shift (CPS) KW - infants KW - Sprachwahrnehmung KW - Spracherwerb KW - Prosodie KW - Ereigniskorrelierte Hirnpotentiale (EKP) KW - prosodische Phrasengrenzen KW - prosodische Grenzmarkierungen KW - Closure Positive Shift (CPS) KW - Säuglinge Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405943 ER - TY - THES A1 - Håkansson, Nils T1 - A Dark Matter line search using 3D-modeling of Cherenkov showers below 10 TeV with VERITAS T1 - Die Suche nach Dunkler Materie mit VERITAS durch Liniensuche und 3D Modellierung von Cherenkov-Schauern unter 10 TeV N2 - Dark matter, DM, has not yet been directly observed, but it has a very solid theoretical basis. There are observations that provide indirect evidence, like galactic rotation curves that show that the galaxies are rotating too fast to keep their constituent parts, and galaxy clusters that bends the light coming from behind-lying galaxies more than expected with respect to the mass that can be calculated from what can be visibly seen. These observations, among many others, can be explained with theories that include DM. The missing piece is to detect something that can exclusively be explained by DM. Direct observation in a particle accelerator is one way and indirect detection using telescopes is another. This thesis is focused on the latter method. The Very Energetic Radiation Imaging Telescope Array System, V ERITAS, is a telescope array that detects Cherenkov radiation. Theory predicts that DM particles annihilate into, e.g., a γγ pair and create a distinctive energy spectrum when detected by such telescopes, e.i., a monoenergetic line at the same energy as the particle mass. This so called ”smoking-gun” signature is sought with a sliding window line search within the sub-range ∼ 0.3 − 10 TeV of the VERITAS energy range, ∼ 0.01 − 30 TeV. Standard analysis within the VERITAS collaboration uses Hillas analysis and look-up tables, acquired by analysing particle simulations, to calculate the energy of the particle causing the Cherenkov shower. In this thesis, an improved analysis method has been used. Modelling each shower as a 3Dgaussian should increase the energy recreation quality. Five dwarf spheroidal galaxies were chosen as targets with a total of ∼ 224 hours of data. The targets were analysed individually and stacked. Particle simulations were based on two simulation packages, CARE and GrISU. Improvements have been made to the energy resolution and bias correction, up to a few percent each, in comparison to standard analysis. Nevertheless, no line with a relevant significance has been detected. The most promising line is at an energy of ∼ 422 GeV with an upper limit cross section of 8.10 · 10^−24 cm^3 s^−1 and a significance of ∼ 2.73 σ, before trials correction and ∼ 1.56 σ after. Upper limit cross sections have also been calculated for the γγ annihilation process and four other outcomes. The limits are in line with current limits using other methods, from ∼ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1. Future larger telescope arrays, like the upcoming Cherenkov Telescope Array, CTA, will provide better results with the help of this analysis method. N2 - Dunkle Materie, DM, wurde noch nicht direkt beobachtet, aber die Theorie ist sehr solide. Es gibt Beobachtungen, die als indirekte Beweise gelten, z.B. galaktische Rotationskurven, die besagen, dass Galaxien zu schnell rotieren um ohne eine zusätzliche Massenkomponente zusammenhalten zu können, oder elliptische Zwerggalaxien, die massereicher sind als die sichtbare Materie vermuten lässt. Diese Beobachtungen könnten z.B. mit dem Vorhandensein von DM erkärt werden, aber bis jetzt fehlt die Beobachtung eines Phänomens, das ausschließlich durch DM erklärt werden kann. Eine Möglichkeit wäre die Beobachtung einer speziellen Energiesignatur durch Teleskope, welche das Thema der vorliegenden Arbeit ist. Das Very Energetic Radiation Imaging Telescope Array System, VERITAS, ist ein Teleskoparray für Cherenkov-Strahlung. Entsprechend der Theorie sollten Teilchen dunkler Materie annihilieren und z.B. ein γγ Paar bilden. Dieses sollte im Teleskop eine spezielle Energiesignatur hinterlassen, nämlich eine monoenergetische Linie bei einer Energie, die der Teilchenmasse entspricht. Diese ”smoking-gun” Signatur wird mit einer sliding window Liniensuche bei Energien < 10TeV gesucht. In der VERITAS Kollaboration werden standardm¨aßig eine Hillas-Analyse und Nachschlagetabellen aus Teilchensimulationen verwendet, um die Energie des Teilchens zu berechnen, das den Cherenkov-Schauer verursacht hat. Hier wird eine verbesserte Analysemethode verwendet. Dabei wird jeder Schauer als 3D-Gaußkurve modelliert, was die Qualität der Energierekonstruktion erheblich verbessern sollte. Dafur wurden funf elliptische Zwerggalaxien beobachtet und einzeln sowie insgesamt analysiert, insgesamt ~ 224 h Beobachtungszeit. Dabei werden zwei verschiedene Teilchensimulationsprogramme verwendet, CARE und GrISU. In dieser Arbeit wurde die Energieauflösung und die Bias-Korrektur um einige Prozent gegen¨uber der Standardanalyse verbessert. Es wurde jedoch keine signifikante Linie detektiert. Die vielversprechendste Linie befindet sich bei einer Energie von ~ 422GeV und hat einen Querschnitt von 8.10·10^−24 cm^3 s^−1 und ein Signifikanzlevel von ~ 2.73 σ bzw. 1.56σ vor bzw. nach statistischer Korrektur. Außerdem wurden obere Grenzwerte fur verschiedene Annihilierungsprozesse berechnet. Sie stimmen mit anderen aktuellen Grenzwerten überein (~ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1). Zukünftig werden mehr Beobachtungsdaten und neue Teleskoparrays, wie das Cherenkov Telescope Array, CTA, mit Hilfe dieser Analysemethode bessere Ergebnisse ermöglichen. KW - Dark Matter KW - line search KW - VERITAS KW - 3D-modeling KW - Cherenkov showers KW - Dunkler Materie KW - Line Suche KW - VERITAS KW - 3D Modellierung KW - Cherenkov-Schauern Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397670 ER - TY - THES A1 - Jennerich, Christian T1 - Lebensweltliche Erfahrungen und kollektive Zuschreibungen bei Bildungsausländern T1 - Life-world experiences and labelling processes of Bildungsausländer (non- national students who acquired their higher education entrance qualifications outside Germany) BT - Eine empirische Studie zu Formen sozialer Identitätsbildung BT - An empirical study on social identity formation N2 - In der vorliegenden Dissertation werden lebensweltliche Erfahrungszusammenhänge in 128 Aufsätzen ausländischer Studierender, die oft auch als Bildungsausländer bezeichnet werden, und grundsätzliche Prozesse bei der Herausbildung sowie Veränderung kollektiver Zuschreibungen im Rahmen der sozialen Identitätsbildung hermeneutisch untersucht. Mit Hilfe der nach der empirischen Methode der Grounded Theory kodierten Interpretationsergebnisse werden in der qualitativen Längsschnittstudie Vergleiche angestellt, sowohl fallintern als auch fallübergreifend, um Muster zu entdecken, Typologien zu konstruieren und die jeweiligen (kulturellen) Horizonte in den Aufsätzen zu verallgemeinern. Neben der Grounded Theory bildet die Theorie der „alltäglichen Lebenswelt“ (Alfred Schütz) eine Basis der Herangehensweise an die Untersuchung der Aufsätze. In diesem Kontext wird ausgehend von der graduellen Unterteilung der Fremdheit in alltägliche, strukturelle und radikale Fremdheit sowie ausgehend von Goffmans Identitätskonzept der Frage nachgegangen, inwieweit sich in den untersuchten Texten die Bildung und Veränderung sozialer Identitäten feststellen lassen. Dabei werden Akkulturationsprozesse und Prozesse der Selbstidentifikation, bezüglich einer angenommenen Gemeinschaft, analysiert, die von kollektiven (kulturellen) Schemata bestimmt sind. In diesem Zusammenhang kann die vorliegende Dissertation zeigen, dass sich bestimmte kulturelle Schemata in der Auseinandersetzung mit dem vormals neuen Leben in Deutschland herausgebildet haben und bestimmte ältere Erfahrungen immer wieder zur Bestätigung dieser Bilder bzw. Erfahrungsschemata herangezogen und wie der Abdruck in Gestein fossiliert werden. N2 - Contexts of life-world experiences are analysed hermeneutically from 128 essays of foreign students, often classed as Bildungsausländer, in this dissertation survey. The focus is on basic processes in the field of development and change of social identity formation. This qualitative longitudinal study uses coded interpretation results – case internally or comprising several cases – and follows the Grounded Theory as an empirical method in order to discover patterns, construct typologies and to generalize the respective (cultural) horizon in the essays. Besides Grounded Theory, the theory ’der alltäglichen Lebenswelt’ (Alfred Schütz) serves as a reference point for the survey. The question is in this context - proceeding from the classifications of everyday, structural and radical otherness and from Goffman`s concept of identity – is to what extent one can prove the formation and change of social identities in the analysed texts. Upon this premise, accuIturation processes and processes of self-identification, in relation to an imagined community, are analysed. These processes are determined by collective (cultural) schemas and this dissertation shows that particular cultural schemas are developed in dealing with the (previously new) life in Germany. Specific older experiences are taken to uphold these images or schemas of experiences, fossilized like an imprint in stone. KW - lebensweltliche Erfahrungen KW - kollektive Zuschreibungen KW - Bildungsausländer KW - ausländische Studierende in Deutschland KW - Formen sozialer Identitätsbildung KW - qualititative Studie KW - non-national students KW - social identity formation KW - foreign students in Germany KW - labelling processes KW - life-world experiences KW - qualitative study Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398991 SN - 978-3-86956-409-8 PB - Universitätsverlag Potsdam ER - TY - THES A1 - John, Daniela T1 - Herstellung anisotroper Kolloide mittels templatgesteuerter Assemblierung und Kontaktdruckverfahren T1 - Generation of anisotropic colloids via templated-assisted assembly and contact printing N2 - Diese Arbeit befasste sich mit neuen Konzepten zur Darstellung anisotroper Partikelsysteme durch Anordnung von funktionalisierten Partikeln unter Zuhilfenahme etablierter Methoden wie der templatgestützten Assemblierung von Partikeln und dem Mikrokontaktdruck. Das erste Teilprojekt beschäftigte sich mit der kontrollierten Herstellung von Faltenstrukturen im Mikro- bis Nanometerbereich. Die Faltenstrukturen entstehen durch die Relaxation eines Systems bestehend aus zwei übereinander liegender Schichten unterschiedlicher Elastizität. In diesem Fall wurden Falten auf einem elastischen PDMS-Substrat durch Generierung einer Oxidschicht auf der Substratoberfläche mittels Plasmabehandlung erzeugt. Die Dicke der Oxidschicht, die über verschiedene Parameter wie Behandlungszeit, Prozessleistung, Partialdruck des plasmaaktiven Gases, Vernetzungsgrad, Deformation sowie Substratdicke einstellbar war, bestimmte Wellenlänge und Amplitude der Falten. Das zweite Teilprojekt hatte die Darstellung komplexer, kolloidaler Strukturen auf Basis supramolekularer Wechselwirkungen zum Ziel. Dazu sollte vor allem die templatgestützte Assemblierung von Partikeln sowohl an fest-flüssig als auch flüssig-flüssig Grenzflächen genutzt werden. Für Erstere sollten die in Teilprojekt 1 hergestellten Faltenstrukturen als Templat, für Letztere Pickering-Emulsionen zur Anwendung kommen. Im ersten Fall wurden verschiedene, modifizierte Silicapartikel und Magnetitnanopartikel, deren Größe und Oberflächenfunktionalität (Cyclodextrin-, Azobenzol- und Arylazopyrazolgruppen) variierte, in Faltenstrukturen angeordnet. Die Anordnung hing dabei nicht nur vom gewählten Verfahren, sondern auch von Faktoren wie der Partikelkonzentration, der Oberflächenladung oder dem Größenverhältnis der Partikel zur Faltengeometrie ab. Die Kombination von Cyclodextrin (CD)- und Arylazopyrazol-modifizierten Partikeln ermöglichte, auf Basis einer Wirt-Gast-Wechselwirkung zwischen den Partikeltypen und einer templatgesteuerten Anordnung, die Bildung komplexer und strukturierter Formen in der Größenordnung mehrerer Mikrometer. Dieses System kann einerseits als Grundlage für die Herstellung verschiedener Janus-Partikel herangezogen werden, andererseits stellt die gerichtete Vernetzung zweier Partikelsysteme zu größeren Aggregaten den Grundstein für neuartige, funktionale Materialien dar. Neben der Anordnung an fest-flüssig Grenzflächen konnte außerdem nachgewiesen werden, dass Azobenzol-funktionalisierte Silicapartikel in der Lage sind, Pickering-Emulsionen über mehrere Monate zu stabilisieren. Die Stabilität und Größe der Emulsionsphase kann über Parameter, wie das Volumenverhältnis und die Konzentration, gesteuert werden. CD-funktionalisierte Silicapartikel besaßen dagegen keine Grenzflächenaktivität, während es CD-basierten Polymeren wiederum möglich war, durch die Ausbildung von Einschlusskomplexen mit den hydrophoben Molekülen der Ölphase stabile Emulsionen zu bilden. Dagegen zeigte die Kombination zwei verschiedener Partikelsysteme keinen oder einen destabilisierenden Effekt bezüglich der Ausbildung von Emulsionen. Im letzten Teilprojekt wurde die Herstellung multivalenter Silicapartikel mittels Mikrokontaktdruck untersucht. Die Faltenstrukturen wurden dabei als Stempel verwendet, wodurch es möglich war, die Patch-Geometrie über die Wellenlänge der Faltenstrukturen zu steuern. Als Tinte diente das positiv geladene Polyelektrolyt Polyethylenimin (PEI), welches über elektrostatische Wechselwirkungen auf unmodifizierten Silicapartikeln haftet. Im Gegensatz zum Drucken mit flachen Stempeln fiel dabei zunächst auf, dass sich die Tinte bei den Faltenstrukturen nicht gleichmäßig über die gesamte Substratfläche verteilt, sondern hauptsächlich in den Faltentälern vorlag. Dadurch handelte es sich bei dem Druckprozess letztlich nicht mehr um ein klassisches Mikrokontaktdruckverfahren, sondern um ein Tiefdruckverfahren. Über das Tiefdruckverfahren war es dann aber möglich, sowohl eine als auch beide Partikelhemisphären gleichzeitig und mit verschiedenen Funktionalitäten zu modifizieren und somit multivalente Silicapartikel zu generieren. In Abhängigkeit der Wellenlänge der Falten konnten auf einer Partikelhemisphäre zwei bis acht Patches abgebildet werden. Für die Patch-Geometrie, sprich Größe und Form der Patches, spielten zudem die Konzentration der Tinte auf dem Stempel, das Lösungsmittel zum Ablösen der Partikel nach dem Drucken sowie die Stempelhärte eine wichtige Rolle. Da die Stempelhärte aufgrund der variierenden Dicke der Oxidschicht bei verschiedenen Wellenlängen nicht kontant ist, wurden für den Druckprozess meist Abgüsse der Faltensubstrate verwendet. Auf diese Weise war auch die Vergleichbarkeit bei variierender Wellenlänge gewährleistet. Neben dem erfolgreichen Nachweis der Modifikation mittels Tiefdruckverfahren konnte auch gezeigt werden, dass über die Komplexierung mit PEI negativ geladene Nanopartikel auf die Partikeloberfläche aufgebracht werden können. N2 - This work dealt with new concepts of formation of anisotropic particle systems by using well-known methods such as template-assisted self-assembly of particles and microcontact printing. The first part paid attention to the controlled preparation of wrinkles in a micro or nanometer range. Wrinkles result from the relaxation of a system consisting of two layers with different elasticity. In this case, wrinkles were generated on top of an elastic PDMS substrate via plasma oxidation to a rigid surface. The thickness of the oxidized layer determined wavelength and amplitude of the wrinkles and could be varied by different parameters: time, power, partial pressure of plasma active gas, level of cross-linking, displacement and thickness of the PDMS substrate. The aim of the second part was the generation of complex, colloidal structures based on supramolecular interactions. For this, the template-assisted self-assembly of particles at solid-liquid and liquid-liquid interfaces should be used. Concerning the assembly at solid-liquid interfaces, we utilized the wrinkle structures generated in part 1 and, concerning the assembly at liquid-liquid interfaces, Pickering emulsions were chosen. In the first case, modified particles (silica and magnetite), that size and functionality (cyclodextrine, azobenzene and arylazopyrazol groups) varied, were assembled in wrinkle structures. The assembly depended not only on the chosen method, concentration, surface charge and size ratio between wrinkles and particles. The combination of cyclodextrine (CD)- and aryazopyralzol-modified particles enabled to build complex and regular structures based on supramolecular interactions between the two particles types and template-assisted self-assembly of these particles. On the one hand, this system generated Janus particles and on the other hand, the controlled agglomeration of two different particle types laid the foundation of new functional materials. Beside the assembly at solid-liquid interfaces, azobenzene-functionalized particles could be used for stabilizing Pickering emulsions. Formed emulsions were stable over a period of several months while parameters such as volume ratio and concentration influenced this stability as well as the volume of the emulsion phase. However, CD-functionalized silica particles possessed no interfacial activity to stabilize emulsions, whereas CD-based polymers could stabilize emulsions by forming inclusion complexes with hydrophobic molecules of the oil phase. On the other hand, the combination of CD-based and azobenzene-functionalized particle systems showed no or a destabilizing effect with regard to the formation of emulsions. In the last part, the generation of multivalent silica particles using a microcontact printing technique were analyzed. Wrinkles were used as stamps which induced the possibility to control the patch geometry by varying their wavelength. The positively charged polyelectrolyte (PEI) served as ink because it can stick to the silica surface by electrostatic interactions. Having a closer look at the printing process, a deviation to printing with flat stamps was found. In contrast to printing with flat stamps, ink solution, in case of wrinkles structures, did not spread over the whole substrate equally but laid mainly in the wrinkle groves. Due to this, the printing process is no longer a classical microcontact printing process but an intaglio printing process. Using the intaglio printing process, it was possible to modify both hemispheres of the particles at the same time and with different functionalities as well as generate multivalent silica particles. Depending on the wrinkle wavelength, two to eight patches per hemisphere could be achieved. The geometry of patches, means their size and arrangement, depended on the concentration of the ink on the stamps, the solvent to removing the particles from the stamps and the hardness of the stamps. Due to a varied thickness of the oxidized layer at different wrinkle wavelengths, the hardness of the stamps is not constant; that is why, casted wrinkles were utilized for the printing process. In this way, we ensure the comparability of printing using different wavelengths. Beside the successful proof of modification using intaglio printing, we could also show that negatively charged nanoparticles could be applied on the particle surface by embedding them into PEI before. KW - Faltenstrukturen KW - Anisotrope Kolloide KW - Kontaktdruck KW - Templatgesteuerte Assemblierung KW - wrinkles KW - patchy particles KW - particle assembly KW - printing Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398270 ER - TY - THES A1 - Jordan, Thomas T1 - CxNy-materials from supramolecular precursors for “All-Carbon” composite materials T1 - CxNy-Materialien aus supramolekularen Precursoren für „All-Carbon“-Komposit-Materialien N2 - Among modern functional materials, the class of nitrogen-containing carbons combines non-toxicity and sustainability with outstanding properties. The versatility of this materials class is based on the opportunity to tune electronic and catalytic properties via the nitrogen content and –motifs: This ranges from the electronically conducting N-doped carbon, where few carbon atoms in the graphitic lattice are substituted by nitrogen, to the organic semiconductor graphitic carbon nitride (g-C₃N₄), with a structure based on tri-s-triazine units. In general, composites can reveal outstanding catalytic properties due to synergistic behavior, e.g. the formation of electronic heterojunctions. In this thesis, the formation of an “all-carbon” heterojunction was targeted, i.e. differences in the electronic properties of the single components were achieved by the introduction of different nitrogen motives into the carbon lattice. Such composites are promising as metal-free catalysts for the photocatalytic water splitting. Here, hydrogen can be generated from water by light irradiation with the use of a photocatalyst. As first part of the heterojunction, the organic semiconductor g-C₃N₄ was employed, because of its suitable band structure for photocatalytic water splitting, high stability and non-toxicity. The second part was chosen as C₂N, a recently discovered semiconductor. Compared to g-C₃N₄, the less nitrogen containing C₂N has a smaller band gap and a higher absorption coefficient in the visible light range, which is expected to increase the optical absorption in the composite eventually leading to an enhanced charge carrier separation due to the formation of an electronic heterojunction. The aim of preparing an “all-carbon” composite included the research on appropriate precursors for the respective components g-C₃N₄ and C₂N, as well as strategies for appropriate structuring. This was targeted by applying precursors which can form supramolecular pre-organized structures. This allows for more control over morphology and atom patterns during the carbonization process. In the first part of this thesis, it was demonstrated how the photocatalytic activity of g-C₃N₄ can be increased by the targeted introduction of defects or surface terminations. This was achieved by using caffeine as a “growth stopping” additive during the formation of the hydrogen-bonded supramolecular precursor complexes. The increased photocatalytic activity of the obtained materials was demonstrated with dye degradation experiments. The second part of this thesis was focused on the synthesis of the second component C₂N. Here, a deep eutectic mixture from hexaketocyclohexane and urea was structured using the biopolymer chitosan. This scaffolding resulted in mesoporous nitrogen-doped carbon monoliths and beads. CO₂- and dye-adsorption experiments with the obtained monolith material revealed a high isosteric heat of CO₂-adsorption and showed the accessibility of the monolithic pore system to larger dye molecules. Furthermore, a novel precursor system for C₂N was explored, based on organic crystals from squaric acid and urea. The respective C₂N carbon with an unusual sheet-like morphology could be synthesized by carbonization of the crystals at 550 °C. With this precursor system, also microporous C₂N carbon with a BET surface area of 865 m²/g was obtained by “salt-templating” with ZnCl₂. Finally, the preparation of a g-C₃N₄/C₂N “all carbon” composite heterojunction was attempted by the self-assembly of g-C₃N₄ and C₂N nanosheets and tested for photocatalytic water splitting. Indeed, the composites revealed high rates of hydrogen evolution when compared to bulk g-C₃N₄. However, the increased catalytic activity was mainly attributed to the high surface area of the nanocomposites rather than to the composition. With regard to alternative composite synthesis ways, first experiments indicated N-Methyl-2-pyrrolidon to be suitable for higher concentrated dispersion of C₂N nanosheets. Eventually, the results obtained in this thesis provide precious synthetic contributions towards the preparation and processing of carbon/nitrogen compounds for energy applications. N2 - Eine interessante Materialklasse für technologische Anwendungen sind Kohlenstoff/Stickstoff-Materialien, die sich durch Ungiftigkeit und Umweltfreundlichkeit bei gleichzeitig interessanten katalytischen Eigenschaften auszeichnen. Die Vielseitigkeit dieser Materialkasse basiert auf der Möglichkeit ihre katalytischen und elektronischen Eigenschaften über Stickstoff-Anteil und –Funktionalitäten zu beeinflussen. Die vorliegende Arbeit fokussierte sich auf Komposite zwischen verschiedenen Kohlenstoff/Stickstoff-Derivaten, für welche aufgrund ihrer unterschiedlichen elektronischen Eigenschaften die Bildung elektronischer Heteroübergänge erwartet werden kann. Solche Komposite sind vielversprechende Materialien für die Erzeugung von Wasserstoff durch die photokatalytische Spaltung von Wasser. Für die eine Komponente des Komposits wurde das graphitische Kohlenstoffnitrid g-C₃N₄ eingesetzt, welches durch seine elektronische Struktur und Stabilität ein geeignetes Material für die photokatalytische Wasserspaltung ist. Für die andere Komponente des Komposits wurde eine erst kürzlich erstmalig beschriebene Kohlenstoff/Stickstoff Verbindung eingesetzt, das Kohlenstoffnitrid C₂N. Für dieses Komposit ist eine im Vergleich zu den einzelnen Komponenten stark erhöhte photokatalytische Aktivität zu erwarten. Neben dem Ziel der Herstellung eines solchen Komposits, fokussierte sich diese Arbeit auch darauf, neue Wege zur Synthese und Strukturierung der einzelnen Komponenten zu entwickeln. Dies sollte über supramolekulare Präkursor-Komplexe erfolgen, mit welchen eine erhöhte Einflussnahme auf Karbonisierungsprozesse erlangt werden kann. Im ersten Teil der Arbeit, welcher auf das graphitische Kohlenstoffnitrid g-C₃N₄ fokussiert war, wurde gezeigt wie die photokatalytische Aktivität dieser Komponente durch den gezielten Einbau von Defekten erhöht werden kann. Dies wurde über einen durch Koffein modifizierten supramolekularen Komplex als Präkursor erreicht. Die erhöhte photokatalytische Aktivität wurde über Farbstoff-Zersetzung nachgewiesen. Der zweite Teil der Arbeit war auf die Herstellung und Strukturierung der neuartigen Verbindung C₂N fokussiert. Hier wurde gezeigt, wie eine eutektische Mischung zwischen Hexaketocyclohexan und Harnstoff als C₂N-Präkursor mit dem Polysaccharid Chitosan strukturiert werden kann. Hierbei wurden poröse Stickstoffhaltige Kohlenstoff-Monolithen und -Perlen erhalten, die eine hohe Adsorptionswärme für die CO₂-Adsorption zeigten. Weiterhin wurde ein neuartiger Präkursor für C₂N vorgestellt, eine organisch-kristalline Verbindung zwischen Quadratsäure und Harnstoff. Durch Karbonisation dieser Verbindung bei 550 °C wurde ein Material mit einer Zusammensetzung von C₂N und einer ungewöhnlichen, schichtartigen Morphologie erhalten. Über eine eutektische Salzschmelze mit Zinkchlorid, konnte mit diesem Präkursor-System auch mikroporöser C₂N-Kohlenstoff mit einer BET-Oberfläche von 865 m²/g hergestellt werden. Im letzten Teil dieser Arbeit wurde die Herstellung des g-C₃N₄/C₂N-Komposits versucht, über die Selbstassemblierung von kolloidal dispergierten g-C₃N₄- und C₂N-Nanopartikeln. Die Nanopartikel wurden über Ultraschall-Behandlungen von Dispersionen dieser Komponenten hergestellt. Die erhaltenen Komposite zeigten eine hohe Aktivität zur photokatalytischen Wasserspaltung, wobei dies eher auf die hohe Oberfläche der Nanopartikel als auf ihre Zusammensetzung zurückgeführt wurde. Im Hinblick auf mögliche Alternativen zur Kompositherstellung, wurden erste Experimente zu höher konzentrierten kolloidalen Dispersionen von C₂N in dem organischen Lösungsmittel N-Methyl-2-pyrrolidon durchgeführt. Zusammenfassend, die Ergebnisse die in dieser Arbeit erhalten wurden, liefern einen wertvollen Beitrag zur Synthese und Strukturierung von Kohlenstoff/Stickstoff-Materialien sowie deren Anwendungen im Bereich alternative Energien. KW - carbon nitrides KW - supramolecular chemistry KW - porous materials KW - composite materials KW - photocatalysis KW - Kohlenstoffnitride KW - supramolekulare Chemie KW - poröse Materialien KW - Komposite KW - Photokatalyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398855 ER - TY - THES A1 - Kaliga, Sarah Ninette T1 - Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden T1 - A question of time. How the influence of individual characteristics on women’s income is conveyed through their family responsibilities BT - eine Untersuchung mit Daten der LifE-Studie BT - an analysis with data from the LifE study N2 - Die vorliegende Arbeit mit dem Titel „Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden“ geht der Frage der Heterogenität bei weiblichen Einkommensergebnissen nach. Dabei steht die Thematik der individuellen Investitionen in die familiäre Arbeit als erklärender Faktor im Vordergrund und es wird der Frage nachgegangen, warum die einen Frauen viele und andere weniger häusliche Verpflichtungen übernehmen. Hierfür werden das individuelle Humankapital der Frauen, ihre Werteorientierungen und individuelle berufliche Motivationen aus der Jugendzeit und im Erwachsenenalter herangezogen. Die analysierten Daten (Daten der LifE-Studie) repräsentieren eine Langzeitperspektive vom 16. bis zum 45. Lebensjahr der befragten Frauen. Zusammenfassend kann im Ergebnis gezeigt werden, dass ein Effekt familiärer Verpflichtungen auf Einkommensergebnisse bei Frauen im frühen und mittleren Erwachsenenalter als Zeiteffekt über die investierte Erwerbsarbeitszeit vermittelt wird. Die Relevanz privater Routinearbeiten für Berufserfolge von Frauen und insbesondere Müttern stellt somit eine Frage der Zeit dar. Weiterhin kann für individuelle Einflüsse auf Einkommen bei Frauen gezeigt werden, dass höhere zeitliche Investitionen in den Beruf von Frauen mit hohem Bildungsniveau als indirect-only-Mediation nur über die Umverteilung häuslicher Arbeiten erklärbar werden. Frauen sind demnach zwar Gewinnerinnen der Bildungsexpansion. Die Bildungsexpansion stellt jedoch auch die Geschichte der Entstehung eines Vereinbarkeitskonflikts für eben diese Frauen dar, weil die bis heute virulenten Beharrungskräfte hinsichtlich der Frauen zugeschriebenen familiären Verpflichtungen mit ihren gestiegenen beruflichen Erwartungen und Chancen kollidieren. Die Arbeit leistet in ihren Analyseresultaten einen wichtigen Beitrag zur Erklärung heterogener Investitionen von Frauen in den Beruf und ihrer Einkommensergebnisse aus dem Privaten heraus. N2 - The present work entitled „A question of time. How the influence of individual characteristics on women’s income is conveyed through their family responsibilities“ examines the question of the heterogenity of female income results. The topic of individual investment in family work is at the forefront as an explanatory factor and the question is why some women assume many and other less domestic obligations. For this purpose, the individual human capital of women, their value orientations and individual professional motivations from adolescence and adulthood are used. The analysed data (data from the LifE-Study) represent a long-term perspective from the 16th to the 45th year of life of the women surveyed. In summary, it can be shown that an effect of family responsibilities on income outcomes for women in early and middle adulthood is conveyed as a time effect over imvested working time. The relevance of private routine work for the professional success of women and especially mothers is therefore a question of time. Furthermore, it can be shown for individual influences on women’s income, that higher investments in the occupation of women with a high educational level can only be explained by the redistribution of domestic work as an indirect-only-mediation. According to this, women are winners in the expansion of education, however, the expansion of education also represents the history of emergence of a conflict of reconciliation for precisely these women, because the family obligations ascribed to women, which are still virulent today, conflict with their increased professional expectations and opportunities. The analysis results of this work make an important contribution to explaining women’s heterogeneous investments in the profession and their income results from the private sphere. KW - Einkommen KW - income KW - Frauen KW - women KW - domestic work KW - Hausarbeit KW - family work KW - Familienarbeit KW - mediation analysis KW - Mediationsanalyse KW - occupational career KW - Berufskarriere KW - human capital KW - Humankapital KW - educational expansion KW - Bildungsexpansion KW - Arbeitsteilung KW - division of labour Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407353 ER - TY - THES A1 - Kasch, Juliane T1 - Impact of maternal high-fat consumption on offspring exercise performance, skeletal muscle energy metabolism, and obesity susceptibility T1 - Einfluss der maternalen Ernährung auf den Energiestoffwechsel des Skelettmuskels, die Ausdauerleistung und die Adipositasentwicklung der Nachkommen N2 - Background: Obesity is thought to be the consequence of an unhealthy nutrition and a lack of physical activity. Although the resulting metabolic alterations such as impaired glucose homeostasis and insulin sensitivity can usually be improved by physical activity, some obese patients fail to enhance skeletal muscle metabolic health with exercise training. Since this might be largely heritable, maternal nutrition during pregnancy and lactation is hypothesized to impair offspring skeletal muscle physiology. Objectives: This PhD thesis aims to investigate the consequences of maternal high-fat diet (mHFD) consumption on offspring skeletal muscle physiology and exercise performance. We could show that maternal high-fat diet during gestation and lactation decreases the offspring’s training efficiency and endurance performance by influencing the epigenetic profile of their skeletal muscle and altering the adaptation to an acute exercise bout, which in long-term, increases offspring obesity susceptibility. Experimental setup: To investigate this issue in detail, we conducted several studies with a similar maternal feeding regime. Dams (C57BL/6J) were either fed a low-fat diet (LFD; 10 energy% from fat) or high-fat diet (HFD; 40 energy% from fat) during pregnancy and lactation. After weaning, male offspring of both maternal groups were switched to a LFD, on which they remained until sacrifice in week 6, 15 or 25. In one study, LFD feeding was followed by HFD provision from week 15 until week 25 to elucidate the effects on offspring obesity susceptibility. In week 7, all mice were randomly allocated to a sedentary group (without running wheel) or an exercised group (with running wheel for voluntary exercise training). Additionally, treadmill endurance tests were conducted to investigate training performance and efficiency. In order to uncover regulatory mechanisms, each study was combined with a specific analytical setup, such as whole genome microarray analysis, gene and protein expression analysis, DNA methylation analyses, and enzyme activity assays. Results: mHFD offspring displayed a reduced training efficiency and endurance capacity. This was not due to an altered skeletal muscle phenotype with changes in fiber size, number, and type. DNA methylation measurements in 6 week old offspring showed a hypomethylation of the Nr4a1 gene in mHFD offspring leading to an increased gene expression. Since Nr4a1 plays an important role in the regulation of skeletal muscle energy metabolism and early exercise adaptation, this could affect offspring training efficiency and exercise performance in later life. Investigation of the acute response to exercise showed that mHFD offspring displayed a reduced gene expression of vascularization markers (Hif1a, Vegfb, etc) pointing towards a reduced angiogenesis which could possibly contribute to their reduced endurance capacity. Furthermore, an impaired glucose utilization of skeletal muscle during the acute exercise bout by an impaired skeletal muscle glucose handling was evidenced by higher blood glucose levels, lower GLUT4 translocation and diminished Lactate dehydrogenase activity in mHFD offspring immediately after the endurance test. These points towards a disturbed use of glucose as a substrate during endurance exercise. Prolonged HFD feeding during adulthood increases offspring fat mass gain in mHFD offspring compared to offspring from low-fat fed mothers and also reduces their insulin sensitivity pointing towards a higher obesity and diabetes susceptibility despite exercise training. Consequently, mHFD reduces offspring responsiveness to the beneficial effects of voluntary exercise training. Conclusion: The results of this PhD thesis demonstrate that mHFD consumption impairs the offspring’s training efficiency and endurance capacity, and reduced the beneficial effects of exercise on the development of diet-induced obesity and insulin resistance in the offspring. This might be due to changes in skeletal muscle epigenetic profile and/or an impaired skeletal muscle angiogenesis and glucose utilization during an acute exercise bout, which could contribute to a disturbed adaptive response to exercise training. N2 - Hintergrund: Übergewicht ist die Folge einer ungesunden Ernährung und einem Mangel an körperlicher Aktivität. Obwohl die daraus resultierenden metabolischen Veränderungen wie die beeinträchtigte Glukose-Homöostase und die Insulinsensitivität in der Regel durch körperliche Aktivität verbessert werden können, sind einige adipöse Patienten nicht in der Lage ihren Skelettmuskel-Metabolismus durch regelmäßiges Training zu verbessern. Da dies weitgehend vererbbar sein könnte, wird vermutet, dass die maternale Ernährung während der Gestation und Laktation einen beeinträchtigten Energiestoffwechsel des Skelettmuskels der Nachkommen begünstigt. Ziel: Ziel dieser Dissertation war es, den Einfluss der maternalen Hochfett-Diät (mHFD) auf den Skelettmuskel des Nachkommens zu untersuchen. Wir konnten zeigen, dass eine mHFD während der Gestation und Laktation die Trainingseffizienz und die Ausdauerleistung der Nachkommen verringert, verursacht durch die Veränderung des epigenetischen Profils des Skelettmuskels der Nachkommen und der verminderten Anpassung an eine akute Trainingsleistung, was langfristig die Anfälligkeit für die Entwicklung einer Adipositas im Nachkommen erhöht. Experimentelles Setup: Um dieses Thema ausführlich zu erforschen, hatten wir ein komplexes Studiendesign. Allen vier Studien ging dasselbe maternale Fütterungsregime voraus. Weibliche C57BL/6J Mäuse wurden entweder mit einer Niedrigfett-Diät (LFD; 10 Energie% aus Fett) oder Hochfett-Diät (HFD; 40 Energie% aus Fett) während der Gestation und Laktation gefüttert. Nach Absatz wurden die männlichen Nachkommen beider Gruppen auf eine LFD umgestellt, auf der sie bis zum Ende der jeweiligen Studie in der Woche 6, 15 oder 25 blieben. In einer Studie folgte auf die LFD-Fütterung eine HFD-Versorgung von Woche 15 bis Woche 25, um den Einfluss der maternalen Diät auf die Entwicklung einer Adipositas der Nachkommen aufzuklären. In der 7. Woche wurden alle Mäuse zufällig einer sesshaften Gruppe (ohne Laufrad) oder einer Trainingsgruppe (mit Laufrad für freiwilliges Trainingstraining) zugewiesen. Darüber hinaus wurden Laufband-Ausdauertests durchgeführt, um die Trainingsleistung und -effizienz zu untersuchen. Um die regulatorischen Mechanismen aufzudecken, wurde jede Studie mit einem spezifischen analytischen Aufbau kombiniert, wie z. B. einer Mikroarray-Analyse, Gen- und Protein-Expressionsanalysen, DNA-Methylierungsanalysen und Enzymaktivitäts-Assays. Ergebnisse: mHFD Nachkommen zeigten eine reduzierte Trainingseffizienz und Ausdauerkapazität. Dies ist nicht auf einen veränderten Skelettmuskel-Phänotyp mit Veränderungen der Muskelfasergröße, der Anzahl und der Muskelfasertypen zurückzuführen. DNA-Methylierungsmessungen bei 6 Wochen alten Nachkommen zeigten eine Hypomethylierung des Nr4a1-Gens in mHFD-Nachkommen, was wiederum in einer erhöhten Genexpression resultierte. Da Nr4a1 eine wichtige Rolle bei der Regulierung des Skelettmuskel-Energiestoffwechsels und der frühen Trainingsanpassung spielt, könnte dies die Trainingseffizienz und -leistung der Nachkommen im späteren Leben beeinflussen. Bei der Untersuchung der Reaktion auf eine akute Ausdauerleistung zeigten die mHFD-Nachkommen eine reduzierte Genexpression von Vaskularisierungsmarkern (Hif1a, Vegfb usw.), die auf eine reduzierte Angiogenese hindeuteten, welche eine Ursache für ihre verminderte Ausdauerkapazität darstellen könnte. Darüber hinaus wurde eine beeinträchtigte Glucoseverwertung des Skelettmuskels während des akuten Ausdauertrainings durch eine beeinträchtigte Glucose-Nutzung des Skelettmuskels mit erhöhten Blutzuckerwerten, einer verminderten GLUT4-Translokation und Laktatdehydrogenase-Aktivität in mHFD-Nachkommen unmittelbar nach dem Ausdauertest gezeigt. Dies weist auf eine gestörte Verwertung der Glucose als Substrat während des Ausdauertrainings hin. Länger andauernde HFD-Fütterung während des Erwachsenenalters erhöht die Fettmasse in mHFD-Nachkommen im Vergleich zu mLFD-Nachkommen und verringert zudem ihre Insulinsensitivität, was Hinweise auf eine erhöhte Adipositas- und Diabetes-Anfälligkeit gibt. Folglich führt die mHFD zu einer verminderten Anpassung der Nachkommen an die positiven Effekte des freiwilligen Laufrad-Trainings. Schlussfolgerung: Die Ergebnisse dieser Dissertation zeigen, dass der mHFD-Konsum die Trainingseffizienz und Ausdauerkapazität der Nachkommen beeinträchtigt, was die Adipositas- und Diabetes-Anfälligkeit im Erwachsenenalter erhöhen kann. Dies könnte auf Veränderungen im epigenetischen Profil des Skelettmuskels und/oder Beeinträchtigungen der Angiogenese und Glukoseverwertung im Skelettmuskel während eines akuten Ausdauertrainings zurückzuführen sein, was zu einer gestörten Anpassung der Nachkommen an das Training beitragen könnte. KW - maternal diet KW - offspring KW - exercise performance KW - skeletal muscle KW - obesity KW - maternale Ernährung KW - Nachkommen KW - Ausdauerleistung KW - Skelettmuskel KW - Adipositas Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409703 ER - TY - THES A1 - Kayser, Markus T1 - Wechselwirkung der atmosphärischen Grenzschicht mit synoptisch–skaligen Prozessen während der N-ICE2015 Kampagne N2 - Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat. Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen. Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt. Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert. N2 - The Arctic warms faster than the rest of the earth. The causes and effects of this arctic amplification are manifested in the arctic atmosphere, especially in the atmospheric boundary layer, which plays a key role in the exchange processes of the atmosphere, ocean and sea ice. This work highlights the importance of synoptic cyclones in the Arctic North Atlantic region. For this purpose, the influence of synoptic cyclones on the Arctic boundary layer as well as their interactions with different regions within the Arctic atmosphere on local to supraregional scales is investigated. The starting point for this are measurement data and model simulations for the period of the NICE2015 expedition, which took place in the Arctic North Atlantic region from early January to late June 2015. On the basis of radiosonde measurements, the effects of synoptic cyclones are most noticeable in the winter because, by the advection of warm and humid air masses into the Arctic, the condition of the atmosphere changes from a radiative clear to opaquely cloudy. Although this sharp contrast only exists in winter, the analysis shows that integrated water vapor is an indicator for the advection of air masses from low latitudes into the Arctic even in the spring. In addition to the advection of air masses, the influence of cyclones on static stability is characterized. Comparing the N-ICE2015 observations with the SHEBA campaign (1997/1998), which took place over thicker ice, similarities are found in the static stability of the atmosphere despite the different sea ice regimes. The observed differences in stability can be attributed to differences in synoptic activity. A further comparison with the radiosondes of the AWIPEV station in Ny-Åesund, Spitzbergen, which were launched parallel to the N-ICE2015 campaign, shows that synoptic cyclones determine the course of the winter months. In addition, the effects of vertically-varying nudging on the development of cyclones is examined for February 2015 using the hydrostatic regional climate model HIRHAM5. It is shown that the differences between the eight model simulations are increasing with decreasing number of nudged levels. The greatest differences are mainly due to the temporal offset of the development of synoptic cyclones. To correct the time offset of the cyclone initiation, it is sufficient to use nudging in the lowest troposphere. The free HIRHAM reproduces the positive end of the N-ICE2015 temperature distribution well, but has a strong negative bias which most likely results from an under-estimation of the moisture content. An example of a cyclone shows that nudging has an influence on the position of the high altitude lows, which in turn influences cyclone development on the ground. Furthermore, a statistical estimate of the effect of nudging on the vertical is made by means of a variance measure suitable for small ensemble sizes. It is found that the similarity of model simulations in the lower troposphere is generally higher than above and has a local minimum in 500 hPa. In the last part of the analysis, the interaction of the upper troposphere and the lower stratosphere is investigated with data from the ERA interim reanalysis using previously examined cyclones. The position and orientation of the polar vortex produced an unusually large meridional component of the tropopause jets, which favored passage of low pressure systems into the central Arctic from the beginning of February 2015 onwards. Using a cyclone as an example, the synoptic development is compared with the theoretical assumptions about the downward impact of the stratosphere on the troposphere. The non-linear interaction between Greenland’s orography, an intrusion of stratospheric air into the troposphere, and a Rossby wave propagating in the direction of the Arctic play a key role in the selected time frame. As an indicator of this interaction, horizontal signatures are identified from alternately ascending and descending air within the troposphere. KW - arktische Grenzschicht KW - Arctic boundary layer KW - synoptische Zyklone KW - synoptic cyclones KW - thermodynamische Struktur KW - thermodynamic structure KW - regional climate simulations KW - regionale Klimasimulationen KW - nudging Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411124 ER - TY - THES A1 - Kellermann, Patric T1 - Assessing natural risks for railway infrastructure and transportation in Austria T1 - Bewertung von Naturrisiken für Eisenbahninfrastruktur und -betrieb in Österreich N2 - Natural hazards can have serious societal and economic impacts. Worldwide, around one third of economic losses due to natural hazards are attributable to floods. The majority of natural hazards are triggered by weather-related extremes such as heavy precipitation, rapid snow melt, or extreme temperatures. Some of them, and in particular floods, are expected to further increase in terms of frequency and/or intensity in the coming decades due to the impacts of climate change. In this context, the European Alps areas are constantly disclosed as being particularly sensitive. In order to enhance the resilience of societies to natural hazards, risk assessments are substantial as they can deliver comprehensive risk information to be used as a basis for effective and sustainable decision-making in natural hazards management. So far, current assessment approaches mostly focus on single societal or economic sectors – e.g. flood damage models largely concentrate on private-sector housing – and other important sectors, such as the transport infrastructure sector, are widely neglected. However, transport infrastructure considerably contributes to economic and societal welfare, e.g. by ensuring mobility of people and goods. In Austria, for example, the national railway network is essential for the European transit of passengers and freights as well as for the development of the complex Alpine topography. Moreover, a number of recent experiences show that railway infrastructure and transportation is highly vulnerable to natural hazards. As a consequence, the Austrian Federal Railways had to cope with economic losses on the scale of several million euros as a result of flooding and other alpine hazards. The motivation of this thesis is to contribute to filling the gap of knowledge about damage to railway infrastructure caused by natural hazards by providing new risk information for actors and stakeholders involved in the risk management of railway transportation. Hence, in order to support the decision-making towards a more effective and sustainable risk management, the following two shortcomings in natural risks research are approached: i) the lack of dedicated models to estimate flood damage to railway infrastructure, and ii) the scarcity of insights into possible climate change impacts on the frequency of extreme weather events with focus on future implications for railway transportation in Austria. With regard to flood impacts to railway infrastructure, the empirically derived damage model Railway Infrastructure Loss (RAIL) proved expedient to reliably estimate both structural flood damage at exposed track sections of the Northern Railway and resulting repair cost. The results show that the RAIL model is capable of identifying flood risk hot spots along the railway network and, thus, facilitates the targeted planning and implementation of (technical) risk reduction measures. However, the findings of this study also show that the development and validation of flood damage models for railway infrastructure is generally constrained by the continuing lack of detailed event and damage data. In order to provide flood risk information on the large scale to support strategic flood risk management, the RAIL model was applied for the Austrian Mur River catchment using three different hydraulic scenarios as input as well as considering an increased risk aversion of the railway operator. Results indicate that the model is able to deliver comprehensive risk information also on the catchment level. It is furthermore demonstrated that the aspect of risk aversion can have marked influence on flood damage estimates for the study area and, hence, should be considered with regard to the development of risk management strategies. Looking at the results of the investigation on future frequencies of extreme weather events jeopardizing railway infrastructure and transportation in Austria, it appears that an increase in intense rainfall events and heat waves has to be expected, whereas heavy snowfall and cold days are likely to decrease. Furthermore, results indicate that frequencies of extremes are rather sensitive to changes of the underlying thresholds. It thus emphasizes the importance to carefully define, validate, and — if needed — to adapt the thresholds that are used to detect and forecast meteorological extremes. For this, continuous and standardized documentation of damaging events and near-misses is a prerequisite. Overall, the findings of the research presented in this thesis agree on the necessity to improve event and damage documentation procedures in order to enable the acquisition of comprehensive and reliable risk information via risk assessments and, thus, support strategic natural hazards management of railway infrastructure and transportation. N2 - Naturgefahren haben zum Teil gravierende Auswirkungen auf die Gesellschaft und die Wirtschaft der betroffenen Region. Weltweit sind etwa ein Drittel der finanziellen Verluste durch Naturereignisse auf Hochwasser zurückzuführen. Die Schäden an Eisenbahninfrastruktur haben dabei oft großen Anteil am Gesamtschaden. Hochwasser und andere Naturgefahren werden häufig durch Extremwetterereignisse, wie etwa Starkniederschläge oder Extremtemperaturen, ausgelöst. Im Zuge des Klimawandels rechnet man für die kommenden Jahrzehnte mit einer Zunahme in der Anzahl bzw. der Schwere einiger Naturereignisse. Mit dem Ziel, die gesellschaftliche Widerstandsfähigkeit gegenüber Naturereignissen zu erhöhen, setzt man zur Gewinnung von Risikoinformationen auf sogenannte Naturrisikoanalysen. Die gegenwärtige Praxis konzentriert sich dabei meist auf die Analyse für einzelne Wirtschaftssektoren, wie etwa den Immobiliensektor. Der Transportsektor und insbesondere die Eisenbahninfrastruktur werden trotz der tragenden Rollen für die Wirtschaftskraft einer Gesellschaft jedoch weitgehend vernachlässigt. Zahlreiche Naturereignisse der letzten Jahrzehnte zeigten allerdings, dass Eisenbahninfrastruktur generell sehr schadensanfällig gegenüber Naturgefahren ist. Ziel dieser Doktorarbeit ist es, das Management von Naturgefahren für den Schienensektor in Österreich durch die Bereitstellung von neuen Risikoinformationen zu unterstützen. Hierzu wurde zum einen ein neuartiges Schadenmodell zur Schätzung von Hochwasserschäden an Eisenbahninfrastruktur entwickelt. Zum anderen wurde unter Verwendung von regionalen Klimamodellen die klimawandelbedingte Änderung der Häufigkeiten von Extremwetter¬ereignissen in Österreich untersucht und mögliche Auswirkungen auf den Eisenbahnbetrieb abgeleitet. Die Forschungsergebnisse zeigen, dass das entwickelte Hochwasserschadenmodell „RAIL“ in der Lage ist, potenzielle Schadenschwerpunkte entlang von Bahnlinien für großräumige Eisenbahnnetze zu identifizieren und damit einen wertvollen Beitrag für die gezielte Planung und Errichtung von technischen Hochwasserschutzmaßnahmen leisten kann. Ferner liefert die Untersuchung der Häufigkeitsentwicklung von Extremwetterereignissen bis zum Jahr 2040 wichtige Einblicke in die zukünftigen Herausforderungen für den Bahnbetrieb im Kontext des Klimawandels. Um aus zukünftigen Naturereignissen lernen zu können und somit ein tieferes Verständnis von Naturgefahrenprozessen und deren Auswirkungen auf Eisenbahninfrastruktur und –betrieb zu erlangen, wird die (Weiter-)Entwicklung und Anwendung von standardisierten Ereignis- und Schadendokumentationsverfahren empfohlen. KW - natural risks KW - damage modeling KW - railway infrastructure KW - Naturrisiken KW - Schadensmodellierung KW - Eisenbahninfrastruktur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103877 ER - TY - THES A1 - Kiani Alibagheri, Bahareh T1 - On structural properties of magnetosome chains T1 - Auf strukturellen Eigenschaften von Magnetosomenketten N2 - Magnetotaktische Bakterien besitzen eine intrazelluläre Struktur, die Magnetosomenkette genannt wird. Magnetosomenketten enthalten Nanopartikel von Eisenkristallen, die von einer Membran umschlossen und entlang eines Zytoskelettfilaments ausgerichtet sind. Dank der Magnetosomenkette ist es magnetotaktischen Bakterien möglich sich in Magnetfeldern auszurichten und entlang magnetischer Feldlinien zu schwimmen. Die ausführliche Untersuchung der strukturellen Eigenschaften der Magnetosomenkette in magnetotaktischen Bakterien sind von grundlegendem wissenschaftlichen Interesse, weil sie Einblicke in die Anordnung des Zytoskeletts von Bakterien erlauben. In dieser Studie haben wir ein neues theoretisches Modell entwickelt, dass sich dazu eignet, die strukturellen Eigenschaften der Magnetosomenketten in magnetotaktischen Bakterien zu erforschen. Zuerst wenden wir uns der Biegesteifigkeit von Magnetosomenketten zu, die von zwei Faktoren beeinflusst wird: Die magnetische Wechselwirkung der Magnetosomenpartikel und der Biegesteifigkeit des Zytoskelettfilaments auf welchem die Magnetosome verankert sind. Unsere Analyse zeigt, dass sich die lineare Konfiguration von Magnetosomenpartikeln ohne die Stabilisierung durch das Zytoskelett zu einer ringörmigen Struktur biegen würde, die kein magnetisches Moment aufweist und daher nicht die Funktion eines Kompass in der zellulären Navigation einnehmen könnte. Wir schlussfolgern, dass das Zytoskelettfilament eine stabilisierende Wirkung auf die lineare Konfiguration hat und eine ringförmige Anordnung verhindert. Wir untersuchen weiter die Gleichgewichtskonfiguration der Magnetosomenpartikel in einer linearen Kette und in einer geschlossenen ringförmigen Struktur. Dabei beobachteten wir ebenfalls, dass für eine stabile lineare Anordnung eine Bindung an ein Zytoskelettfilament notwendig ist. In einem externen magnetischen Feld wird die Stabilität der Magnetosomenketten durch die Dipol-Dipol-Wechselwirkung, über die Steifheit und die Bindungsenergie der Proteinstruktur, die die Partikel des Magnetosomen mit dem Filament verbinden, erreicht. Durch Beobachtungen während und nach der Behandlung einer Magnetosomenkette mit einem externen magnetischen Feld, lässt sich begründen, dass die Stabilisierung von Magnetosomenketten durch Zytoskelettfilamente über proteinhaltige Bindeglieder und die dynamischen Eigenschaften dieser Strukturen realisiert wird. Abschließend wenden wir unser Modell bei der Untersuchung von ferromagnetischen Resonanz-Spektren von Magnetosomenketten in einzelnen Zellen von magnetotaktischen Bakterien an. Wir erforschen den Effekt der magnetokristallinen Anistropie in ihrer dreifach-Symmetrie, die in ferromagnetischen Ressonanz Spektren beobachtet wurden und die Besonderheit von verschiedenen Spektren, die bei Mutanten dieser Bakterien auftreten. N2 - Magnetotactic bacteria possess an intracellular structure called the magnetosome chain. Magnetosome chains contain nano−particles of iron crystals enclosed by a membrane and aligned on a cytoskeletal filament. Due to the presence of the magnetosome chains, magnetotactic bacteria are able to orient and swim along the magnetic field lines. A detailed study of structural properties of magnetosome chains in magnetotactic bacteria has primary scientific interests. It can provide more insight into the formation of the cytoskeleton in bacteria. In this thesis, we develop a new framework to study the structural properties of magnetosome chains in magnetotactic bacteria. First, we address the bending stiffness of magnetosome chains resulting from two main contributions: the magnetic interactions of magnetosome particles and the bending stiffness of the cytoskeletal filament to which the magnetosomes are anchored. Our analysis indicates that the linear configuration of magnetosome particles without the stabilisation to the cytoskeleton may close to ring like structures, with no net magnetic moment, which thus can not perform as a compass in cellular navigation. As a result we think that one of the roles of the filament is to stabilize the linear configuration against ring closure. We then investigate the equilibrium configurations of magnetosome particles including linear chain and closed−ring structures. We notably observe that for the formation of a stable linear structure on the cytoskeletal filament, presence of a binding energy is needed. In the presence of external stimuli the stability of the magnetosome chain is due to the internal dipole−dipole interactions, the stiffness and the binding energy of the protein structure connecting the magnetosome particles to the filament. Our observations, during and after the treatment of the magnetosome chain with the external magnetic field substantiates the stabilisation of magnetosome chains to the cytoskeletal filament by proteinous linkers and the dynamic feature of these structures. Finally, we employ our model to study the FMR spectra of magnetosome chains in a single cell of magnetotactic bacteria. We explore the effect of magnetocrystalline anisotropy in three-fold symmetry observed in FMR spectra and the peculiarity of different spectra arisen from different mutants of these bacteria. KW - magnetotactic bacteria KW - magnetosome chains KW - structural properties KW - magnetotaktische Bakterien KW - Magnetosomen-Ketten KW - strukturelle Eigenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398849 ER - TY - THES A1 - Kirsch, Fabian T1 - Intrapersonal risk factors of aggressive behavior in childhood T1 - Intrapersonale Risikofaktoren für die Entwicklung aggressiven Verhaltens in der Kindheit BT - a longitudinal perspective BT - eine längsschnittliche Perspektive N2 - BACKGROUND: Aggressive behavior at an early age is linked to a broad range of psychosocial problems in later life. That is why risk factors of the occurrence and the development of aggression have been examined for a long time in psychological science. The present doctoral dissertation aims to expand this research by investigating risk factors in three intrapersonal domains using the prominent social-information processing approach by Crick and Dodge (1994) as a framework model. Anger regulation was examined as an affective, theory of mind as a cognitive, and physical attractiveness as an appearance-related developmental factor of aggression in middle childhood. An additional goal of this work was to develop and validate a behavioral observation assessment of anger regulation as past research lacked in ecologically valid measures of anger regulation that are applicable for longitudinal studies. METHODS: Three empirical studies address the aforementioned intrapersonal risk factors. In each study, data from the PIER-project were used, a three-wave-longitudinal study covering three years with a total sample size of 1,657 children in the age between 6 and 11 years (at the first measurement point). The central constructs were assessed via teacher-reports (aggression), behavioral observation (anger regulation), computer tests (theory of mind), and independent ratings (physical attractiveness). The predictive value of each proposed risk factor for the development of aggressive behavior was examined via structural equation modeling. RESULTS AND CONCLUSION: The newly developed behavioral observation measure was found to be a reliable and valid tool to assess anger regulation in middle childhood, but limited in capturing a full range of relevant regulation strategies. That might be the reason, why maladaptive anger regulation was not found to function as a risk factor of subsequent aggressive behavior. However, children’s deficits in theory of mind and a low level in physical attractiveness significantly predicted later aggression. Problematic peer relationships were identified as underlying the link between low attractiveness and aggression. Thus, fostering children’s skills in theory of mind and their ability to call existing beliefs about the nature of more versus less attractive individuals into question may be important starting points for the prevention of aggressive behavior in middle childhood. N2 - HINTERGRUND: Aggressives Verhalten in einem sehr jungen Alter steht im Zusammenhang mit einer Vielzahl psychosozialer Probleme im späteren Leben. Aus diesem Grund sind Risikofaktoren für das Auftreten von Aggression seit langer Zeit Gegenstand psychologischer Forschung. Die vorliegende Dissertation knüpft an dieser Forschung an und zielt darauf ab, potentielle Risikofaktoren aus drei intrapersonalen Domänen zu untersuchen. Als Grundlage wird das prominente Modell der sozialen Informationsverarbeitung von Crick und Dodge (1994) herangezogen. Hierbei wird Ärgerregulation als ein affektiver, Theory of Mind als ein kognitiver, und physische Attraktivität als ein aussehensbezogener Entwicklungsfaktor aggressiven Verhaltens in der mittleren Kindheit näher betrachtet. Ein zusätzliches Ziel dieser Arbeit besteht darin, ein Verhaltensbeobachtungsverfahren zur Erfassung der Ärgerregulation zu entwickeln und zu validieren, da in der Forschung ein Mangel an ökologisch validen Verfahren, die insbesondere auch für längsschnittliche Studien geeignet sind, besteht. METHODIK: Drei empirische Studien nehmen sich den benannten intrapersonalen Risikofaktoren an. Dabei werden in jeder Studie Daten aus dem PIER-Projekt genutzt, einer Längsschnittstudie, die drei Messzeitpunkte über drei Jahre abdeckt und eine Stichprobe von insgesamt 1657 Kinder im Alter zwischen 6 und 11 Jahren umfasst (zum ersten Messzeitpunkt). Die zentralen Konstrukte wurden mittels Lehrerberichte (aggressives Verhalten), Verhaltensbeobachtung (Ärgerregulation), Computerverfahren (Theory of Mind), und unabhängigen Ratings (physische Attraktivität) operationalisiert. Der prädiktive Wert der Risikofaktoren im Hinblick auf die Entwicklung aggressiven Verhaltens wurde mithilfe von Strukturgleichungsmodellen ermittelt. ERGEBNISSE UND KONKLUSION: Das neu entwickelte Verhaltensbeobachtungsverfahren hat sich als ein reliables und valides Instrument zur Messung ärgerregulativer Kompetenzen innerhalb der mittleren Kindheit herausgestellt; gleichzeitig wird deutlich, dass nicht alle relevanten Regulationsstrategien von solch einem Verfahren erfasst werden können. Das könnte ein Grund sein, dass sich maladaptive Ärgerregulation nicht als ein Risikofaktor für späteres aggressives Verhalten herausstellte. Allerdings zeigte sich, dass Defizite in der Theory of Mind und eine niedrig ausgeprägte physische Attraktivität signifikant spätere Aggression vorhersagte. Problematische Peerbeziehungen konnten als ein vermittelnder Mechanismus für den Zusammenhang von niedriger Attraktivität und Aggression identifiziert werden. Die Förderung der Theory of Mind und der Fähigkeit, bereits existierende Überzeugungen über die Persönlichkeit von attraktiven und weniger attraktiven Individuen in Frage zu stellen, können wichtige Ansatzpunkte für die Prävention aggressiven Verhaltens in der mittleren Kindheit darstellen. KW - aggression KW - anger regulation KW - theory of mind KW - physical attractiveness KW - development KW - childhood KW - longitudinal methodology KW - Aggression KW - Ärgerregulation KW - Theory of Mind KW - physische Attraktivität KW - Entwicklung KW - Kindheit KW - Längsschnitt Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407369 ER - TY - THES A1 - Korzeniowska, Karolina T1 - Object-based image analysis for detecting landforms diagnostic of natural hazards T1 - Objektbasierte Bildanalyse zur Erfassung spezieller diagnostischer Landformen von Naturgefahren N2 - Natural and potentially hazardous events occur on the Earth’s surface every day. The most destructive of these processes must be monitored, because they may cause loss of lives, infrastructure, and natural resources, or have a negative effect on the environment. A variety of remote sensing technologies allow the recoding of data to detect these processes in the first place, partly based on the diagnostic landforms that they form. To perform this effectively, automatic methods are desirable. Universal detection of natural hazards is challenging due to their differences in spatial impacts, timing and longevity of consequences, and the spatial resolution of remote-sensing data. Previous studies have reported that topographic metrics such as roughness, which can be captured from digital elevation data, can reveal landforms diagnostic of natural hazards, such as gullies, dunes, lava fields, landslides and snow avalanches, as these landforms tend to be more heterogeneous than the surrounding landscape. A single roughness metric is often limited in such detections; however, a more complex approach that exploits the spatial relation and the location of objects, such as object-based image analysis (OBIA), is desirable. In this thesis, I propose a topographic roughness measure derived from an airborne laser scanning (ALS) digital terrain model (DTM) and discuss its performance in detecting landforms principally diagnostic of natural hazards. I further develop OBIA-based algorithms for the detection of snow avalanches using near-infrared (NIR) aerial images, and the size (changes) of mountain lakes using LANDSAT satellite images. I quantitatively test and document how the level of difficulty in detecting these very challenging landforms depends on the input data resolution, the derivatives that could be evaluated from images and DTMs, the size, shape and complexity of landforms, and the capabilities of obtaining the information in the data. I demonstrate that surface roughness is a promising metric for detecting different landforms in diverse environments, and that OBIA assists significantly in detecting parts of lakes and snow avalanches that may not be correctly assigned by applying only the thresholding of spectral properties of data and their derivatives. The curvature-based surface roughness parameter allows the detection of gullies, dunes, lava fields and landslides with a user’s accuracy of 0.63, 0.21, 0.53, and 0.45, respectively. The OBIA algorithms for detecting lakes and snow avalanches obtained user’s accuracy of 0.98, and 0.78, respectively. Most of the analysed landforms constituted only a small part of the entire dataset, and therefore the user’s accuracy is the most appropriate performance measure that should be given in a such classification, because it tells how many automatically-extracted pixels in fact represent the object that one wants to classify, and its calculation does not take the second (background) class into account. One advantage of the proposed roughness parameter is that it allows the extraction of the heterogeneity of the surface without the need for data detrending. The OBIA approach is novel in that it allows the classification of lakes regardless of the physical state of their water, and also allows the separation of frozen lakes from glaciers that have very similar water indices used in purely optical remote sensing applications. The algorithm proposed for snow avalanches allows the detection of release zones, tracks, and deposition zones by verifying the snow heterogeneity based on a roughness metric evaluated from a water index, and by analysing the local relation of segments with their neighbouring objects. This algorithm contains few steps, which allows for the simultaneous classification of avalanches that occur on diverse mountain slopes and differ in size and shape. This thesis contributes to natural hazard research as it provides automatic solutions to tracking six different landforms that are diagnostic of natural hazards over large regions. This is a step toward delineating areas susceptible to the processes producing these landforms and the improvement of hazard maps. N2 - Naturgefahren und potenziell gefährliche Ereignisse der Erdoberfläche treten jeden Tag auf. Prozesse mit Zerstörungswirkungen sollten identifiziert werden, weil sie Gefahren für besiedelte Gebiete sowie menschliches Leben haben können. Naturgefahren haben erhebliche Einflüsse auf die Umwelt. Eine Vielzahl von Fernerkundungstechnologien, die heutzutage verfügbar sind, erlauben die Aufnahme und Speicherung von Datensätzen, die bei der Erkennung solcher Naturgefahren helfen können. Eine wichtige Grundlage dafür stellt die diagnostische Landform dar, welche die Naturgefahr ausbildet. Für eine effiziente Analyse sind automatische Methoden wünschenswert. Die Verwendung einer universellen Methode zur Erkennung von Naturgefahren ist deshalb eine Herausforderung, weil die räumlichen Ausdehnungen unterschiedlich sind. So können diese unterschiedlichen Alters sein und verschiedene räumliche Auflösungen in Fernerkundungsdaten besitzen. Dies beeinflusst den Detailierungsgrad bei der Abbildung der Erdoberfläche. Frühere Studien zeigen, dass Ableitungen wie beispielweise die Rauheit, die von Fernerkundungsdaten erfasst werden kann, es erlauben, Naturgefahrenphänomene wie z. B. Erosionsrinnen, Dünen, Lavafelder, Erdrutsche und Schneelawinen zu erkennen, weil sie heterogener sind als umgebende Objekte. Dennoch ist es nicht zulässig, allein mittels der eigenständigen Rauheit eine Unterscheidung zwischen den erfassten Landschaftsformen vorzunehmen. Hier ist ein komplexer Ansatz wie die Objektbasierte Bildanalyse (OBIA) wünschenswert, weil ein solcher sowohl die räumliche Relation als auch die Lage von Objekten verwendet. In dieser Dissertation schlage ich einen Oberflächenrauhigkeitsindex, abgeleitet aus einem durch Airborne Laserscanning (ALS) erfassten digitalen Geländemodells (DTM), vor und diskutiere die Faktoren, die die Darstellung von Naturgefahrenphänomenen mittels dieser Variable beeinflussen. Ich präsentiere auch OBIA-basierte, automatische Algorithmen für die Erkennung von Schneelawinen welche aus Nah-Infrarot (NIR) Luftbildern ausgewertet wurden sowie den Verlauf einer Seegrenze, die auf LANDSAT Satellitenbildern abgebildet wird. Ich zeige weiterhin, dass der Schwierigkeitsgrad für die Erfassung der analysierten Phänomene variabel und abhängig von den Dateneigenschaften, der Komplexität der getrackten Phänomene sowie von den qualitativen Ausprägungen des Informationsgehaltes ist. Ferner werde ich zeigen, dass die vorgeschlagene Oberflächenrauhigkeit die räumliche Ausdehnung der verschiedenen Phänomene zu bestimmen erlaubt, und dass der OBIA-Ansatz deutlich bei der Erkennung von Objekten und derjenigen Teile hilft, die nicht korrekt nur durch Verwendung spektraler Eigenschaften von Daten und deren Derivaten zugewiesen werden konnten. Der krümmungsbasierte Oberflächenrauhigkeitindex ermöglicht die Erkennung von Erosionsrinnen, Dünen, Lavafeldern, und Erdrutschen mit einer Benutzergenauigkeit von: 0.63, 0.21, 0.53 und 0.45. Vergleichend dazu erzielen die vorgestellten OBIA-Algorithmen für die Erfassung von Seen und Schneelawinen eine Benutzergenauigkeit von 0.98 und 0.78. Die in dieser Arbeit analysierten Landformen stellen einen Ausschnitt aus dem Gesamtspektrum vorkommender Strukturen dar. Die Benutzergenauigkeit stellt dabei den am besten geeigneten Leistungsindex dar, auf dem basierend eine Klassifikation durchgeführt werden kann. Die Benutzergenauigkeit gibt an, wie viele der automatisch extrahierten Pixel das zu klassifizierende Objekt tatsächlich repräsentieren. Eine Betrachtung einer zweiten (Hintergrund-) Klasse muss durch diesen Ansatz nicht erfolgen. Ein Vorteil des vorgeschlagenen Oberflächenrauhigkeitindex ist, dass er die Extraktion der Heterogenität der Oberfläche ohne die Notwendigkeit eines Daten-detrendings ermöglicht. Der OBIA-Ansatz für die Erfassung von Seegrenzen erlaubt es einerseits, Seen ungeachtet der physikalischen Zustände des Wassers zu klassifizieren und anderseits gefrorene Seen von den Gletschern zu unterschieden, welche ähnliche Eigenschaften beim Wasserindex aufweisen. Der für Schneelawinen vorgeschlagene Algorithmus wiederum ermöglicht insgesamt die Erfassung von Anbruchgebieten, Sturzbahnen und Ablagerungszonen durch Verifikation der Schneeheterogenität sowie die lokalen Beziehungen zu benachbarten Objekten. Dieser Algorithmus enthält einige Schritte, die es erlauben, gleichzeitig Lawinen zu klassifizieren, die in verschiedenen Berghängen auftreten und unterschiedliche Größen und Formen haben. Diese Dissertation trägt zur Naturgefahrenforschung bei, da sie automatische Lösungen für das Monitoring von sechs verschiedenen Landformen bietet, die typisch für Naturgefahren sind. Es wird somit dazu beigetragen, Gebiete abgrenzbar zu machen, welche für das Auftreten von Gefahrenphänomenen besonders anfällig sind. Zudem können damit auch Verbesserungen bei der Erstellung von Gefahrenkarten erreicht werden. KW - object based image analysis KW - automatic classification KW - GIS KW - satellite images KW - photogrammetry KW - landforms KW - natural hazards KW - snow avalanches KW - lakes KW - roughness KW - objektbasierte Bildanalyse KW - automatische Klassifizierung KW - GIS KW - Satellitenbilder KW - Photogrammetrie KW - Landformen KW - Naturgefahren KW - Lawinen KW - Seen KW - Rauheit Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402240 ER - TY - THES A1 - Krüger, Stefanie T1 - Seidenbasierte anorganische Funktionsmaterialien T1 - Silk based inorganic functional materials N2 - In der vorliegenden Arbeit konnten erfolgreich zwei unterschiedliche Hybridmaterialien (HM) über die Sol-Gel-Methode synthetisiert werden. Bei den HM handelt es sich um Monolithe mit einem Durchmesser von bis zu 4,5 cm. Das erste HM besteht aus Titandioxid und Bombyx mori Seide und wird als TS bezeichnet, während das zweite weniger Seide und zusätzlich Polyethylenoxid (PEO) enthält und daher als TPS abgekürzt wird. Einige der HM wurden nach der Synthese in eine wässrige Tetrachloridogoldsäure-Lösung getaucht, wodurch sich auf der Oberfläche Goldnanopartikel gebildet haben. Die Materialien wurden mittels Elektronenmikroskopie, energiedispersiver Röntgenspektroskopie, Ramanspektroskopie sowie Röntgenpulverdiffraktometrie charakterisiert. Die Ergebnisse zeigen, dass beide HM aus etwa 5 nm großen, sphärischen Titandioxidnanopartikeln aufgebaut sind, die primär aus Anatas und zu einem geringen Anteil aus Brookit bestehen. Die Goldnanopartikel bei TPS_Au waren größer und polydisperser als die Goldnanopartikel auf dem TS_Au HM. Darüber hinaus sind die Goldnanopartikel im TS HM tiefer in das Material eingedrungen als beim TPS HM. Die weiterführende Analyse der HM mittels Elementaranalyse und thermogravimetrischer Analyse ergab für TPS einen geringeren Anteil an organischen Bestandteilen im HM als für TS, obwohl für beide Synthesen die gleiche Masse an organischen Materialien eingesetzt wurde. Es wird vermutet, dass das PEO während der Synthese teilweise wieder aus dem Material herausgewaschen wird. Diese Theorie korreliert mit den Ergebnissen aus der Stickstoffsorption und der Quecksilberporosimetrie, die für das TPS HM eine höhere Oberfläche als für das TS HM anzeigten. Die Variation einiger Syntheseparameter wie die Menge an Seide und PEO oder die Zusammensetzung der Titandioxidvorläuferlösung hatte einen großen Einfluss auf die synthetisierten HM. Während unterschiedliche Mengen an PEO die Größe des HM beeinflussten, konnte ohne Seide kein HM in einer ähnlichen Größe hergestellt werden. Die Bildung der HM wird stark von der Zusammensetzung der Titandioxidvorläuferlösung beeinflusst. Eine Veränderung führte daher nur selten zur Bildung eines homogenen HM. Die in dieser Arbeit synthetisierten HM wurden als Photokatalysatoren für die Wasserspaltung und den Abbau von Methylenblau eingesetzt. Bei der photokatalytischen Wasserspaltung wurde zunächst der Einfluss unterschiedlicher Goldkonzentrationen beim TPS HM auf die Wasserstoffausbeute untersucht. Die besten Ergebnisse wurden bei einer Menge von 2,5 mg Tetrachloridogoldsäure erhalten. Darüber hinaus wurde gezeigt, dass mit dem TPS HM eine deutlich höhere Menge an Wasserstoff gewonnen werden konnte als mit dem TS HM. Die Ursachen für die schlechtere Aktivität werden in der geringeren spezifischen Oberfläche, der unterschiedlichen Porenstruktur, dem höheren Anteil an Seide und besonders in der geringeren Größe und höheren Eindringtiefe der Goldnanopartikel vermutet. Darüber hinaus konnte mit einem höheren UV-Anteil in der Lichtquelle sowie durch die Zugabe von Ethanol als Opferreagenz eine Zunahme der Wasserstoffausbeute erzielt werden. Bei dem Methylenblauabbau wurde für beide HM zunächst nur eine Adsorption des Methylenblaus beobachtet. Nach der Zugabe von Wasserstoffperoxid konnte nach 8 h bereits eine fast vollständige Oxidation des Methylenblaus unter sichtbarem Licht beobachtet werden. Die Ursache für die etwas höhere Aktivität von TPS gegenüber TS wird in der unterschiedlichen Porenstruktur und dem höheren Anteil an Seide im TS HM vermutet. Insgesamt zeigen beide HM eine gute photokatalytische Aktivität für den Abbau von Methylenblau im Vergleich zu den erhaltenen Werten aus der Literatur. N2 - Two different hybrid materials (HM) were successfully synthesized by the sol-gel-method. The first HM is based on titania and Bombyx mori silk and will be denoted as TS. The second HM is TPS and also contains titania but a lower amount of silk and additionally poly(ethylene oxide) (PEO). Furthermore some of the HM were immerse in aqueous hydrogen tetrachloroaurate solutions to deposit gold nanoparticles (AuNP) on the surface of the HM. All materials are monoliths with diameters of up to ca. 4.5 cm. Analysis via electron microscopy, energy dispersive X-ray spectroscopy, Raman spectroscopy, and X-ray powder diffraction shows that the HM are based on 5 nm titania nanoparticles (TNP) – mainly anatase with a minor fraction of brookite - and AuNPs on the order of 7-18 nm. Addition of PEO to the reaction mixture enables pore size tuning which were analyzed by nitrogen sorption and mercury intrusion porosimetry measurements. These observations correlate with the results from elemental and thermogravimetric analysis which show a lower amount of organic components in TPS than in TS HM. In both HM the amount of organic components used for the synthesis are the same. Therefore we suppose that PEO is washed out of the material during the synthesis which yield to a higher surface area and a lower amount of organic components. A further chapter of the thesis describes the variation of different synthesis parameter like amount of silk or PEO or the composition of the titania precursor solution. The results show that it is impossible to create a HM of about 4.5 cm without silk. Furthermore the amount of PEO influences the size of the HM whereas the composition of the titania precursor solution has a large effect on the synthesis of such HM. Furthermore both HM were tested for their photocatalytic activities for water splitting and methylene blue (MB) degradation. Water splitting experiments using a sun simulator show that the new hybrid materials are effective water splitting catalysts and produce up to 30 mmol of hydrogen per 24 h. The amount of produced hydrogen is dependent on the HM (TPS_Au or TS_Au), the amount of AuNP, the addition of ethanol as sacrificial reagent or the light source. Studies of MB degradation show initially just an adsorption and not a degradation of MB. After the addition of hydrogen peroxide, there is an almost complete degradation of MB within 8 h. Both HM show a good photocatalytic activity for MB degradation compared with results from the literature. KW - photocatalytic water splitting KW - titania KW - Bombyx mori silk KW - gold KW - photokatalytische Wasserspaltung KW - Titandioxid KW - Gold KW - Bombyx mori Seide Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404635 ER - TY - THES A1 - Kunstmann, Ruth Sonja T1 - Design of a high-affinity carbohydrate binding protein T1 - Design eines hoch-affin Kohlenhydrat-bindenden Proteins N2 - Kohlenhydrat-Protein Interaktionen sind in der Natur weitverbreitet. Sie stellen die Grundlage für viele biologische Prozesse dar, wie zum Beispiel Immunantworten, Wundheilung und Infektionsprozesse von pathogenen Viren oder Bakterien mit einem Wirt wie dem Menschen. Neben der Infektion von Menschen können aber auch Bakterien selbst durch so genannte Bakteriophagen infiziert werden, welche für den Menschen ungefährlich sind. Diese Infektion involviert die spezifische Erkennung der pathogenen Bakterien, die Vermehrung der Bakteriophagen und schließlich die Abtötung der Bakterien. Dabei können die Mechanismen der spezifischen Erkennung genutzt werden, pathogene Bakterien auf Lebensmitteln zu detektieren oder die Diagnose von Infektionen zu vereinfachen. Die spezifische Erkennung von Enteritis-erzeugenden Bakterien wie Escherichia coli, Salmonella spp. oder Shigella flexneri durch Bakteriophagen der Familie der Podoviridae erfolgt über die Bindung eines sogenannten tailspike proteins des Bakteriophagen an das aus Kohlenhydraten-bestehende O-Antigen des Lipopolysaccharids von Gram-negativen Bakterien. Das tailspike protein spaltet das O-Antigen um den Bakteriophage an die Oberfläche des Bakteriums zu führen, damit eine Infektion stattfinden kann. Die Affinität des tailspike proteins zum O-Antigen ist dabei sehr niedrig, um nach Spaltung des O-Antigens das Spaltungsprodukt zu lösen und wiederum neues Substrat zu binden. In dieser Arbeit wurde ein tailspike protein des Bakteriophagen Sf6 verwendet (Sf6 TSP), das spezifisch an das O-Antigen von Shigella flexneri Y bindet. Eine inaktive Variante des Sf6 TSP wurde verwendet um einen hoch-affin bindenden Sensor für pathogene Shigella zu entwickeln. Der Shigella-Sensor wurde durch Kopplung von unterschiedlichen Proteinmutanten mit einem fluoreszierendem Molekül erhalten. Dabei zeigte eine dieser Mutanten bei Bindung von Shigella O-Antigen ein Fluoreszenz-Signal im Bereich des sichtbaren Lichts. Molekulardynamische Simulationen wurde anhand der erzeugten Proteinmutanten als Methode zum rationalen Design von hoch-affin Kohlenhydrat-bindenden Proteinen getestet und die resultierenden Affinitätsvorhersagen wurden über Oberflächenplasmonresonanz-Experimente überprüft. Aus weiteren experimentellen und simulierten Daten konnten schließlich Schlussfolgerungen über die Ursprünge von Kohlenhydrat-Protein Interaktionen gezogen werden, die eine Einsicht über den Einfluss von Wasser in diesem Bindungsprozess lieferten. N2 - Carbohydrate-protein interactions are ubiquitous in nature. They provide the initial molecular contacts in many cell-cell processes as for example immune responses, signal transduction, egg fertilization and infection processes of pathogenic viruses and bacteria. Furthermore, bacteria themselves are infected by bacteriophages, viruses which can cause the bacterial lysis, but do not affect other hosts. The infection process of a bacteriophage involves the specific detection and binding of the bacterium, which can be based on a carbohydrate-protein interaction. The mechanism of specific detection of pathogenic bacteria can thereby be useful for the development of bacteria sensors in the food industry or for tools in diagnostics. Bacteriophages of the Podoviridae family use tailspike proteins for the specific detection of enteritis causing bacteria as Escherichia coli, Salmonella spp. or Shigella flexneri. The tailspike protein provides the first contact by binding to the carbohydrate containing O-antigen part of lipopolysaccharide in the Gram-negative cell wall. After binding to O-antigen repeating units, the enzymatic activity of tailspike proteins leads to cleavage of the carbohydrate chains, which enables the bacteriophage to approach the bacterial surface for DNA injection. Tailspike proteins thereby exhibit a relatively low affinity to the oligosaccharide structures of O-antigen due to the necessary binding, cleavage and release cycle, compared for example to antibodies. In this work it was aimed to study the determinants that influence carbohydrate affinity in the extended TSP binding grooves. This is a prerequisite to design a high-affinity tailspike protein based bacteria sensor. For this purpose the tailspike protein of the bacteriophage Sf6 (Sf6 TSP) was used, which specifically binds Shigella flexneri Y O-antigen with two tetrasaccharide repeating units at the intersubunits of the trimeric β-helix protein. The Sf6 TSP endorhamnosidase cleaves the O-antigen, which leads to an octasaccharide as the main product. The binding affinity of inactive Sf6 TSP towards polysaccharide was characterized by fluorescence titration experiments and surface plasmon resonance (SPR). Moreover, cysteine mutations were introduced into the Sf6 TSP binding site for the covalent thiol-coupling of an environment-sensitive fluorescent label to obtain a sensor for Shigella flexneri Y based on TSP-O-antigen recognition. This sensor showed a more than 100 % amplitude increase of a visible light fluorescence upon the binding of a polysaccharide test solution. Improvements of the TSP sensor can be achieved by increasing the tailspike affinity towards the O-antigen. Therefore molecular dynamics simulations evaluating ligand flexibility, hydrogen bond occupancies and water network distributions were used for affinity prediction on the available cysteine mutants of Sf6 TSP. The binding affinities were experimentally analyzed by SPR. This combined computational and experimental set-up for the design of a high-affinity carbohydrate binding protein could successfully distinguish strongly increased and decreased affinities of single amino acid mutants. A thermodynamically and structurally well characterized set of another tailspike protein HK620 TSP with high-affinity mutants was used to evaluate the influence of water molecules on binding affinity. The free enthalpy of HK620 TSP oligosaccharide complex formation thereby either derived from the replacement of a conserved water molecule or by immobilization of two water molecules upon ligand binding. Furthermore, the enthalpic and entropic contributions of water molecules in a hydrophobic binding pocket could be assigned by free energy calculations. The findings in this work can be helpful for the improvement of carbohydrate docking and carbohydrate binding protein engineering algorithms in the future. KW - Kohlenhydrat-Protein Interaction KW - carbohydrate-protein interaction KW - bacterial sensor KW - Bakterien Sensor Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403458 ER - TY - THES A1 - Lacroix, André T1 - Factors influencing the effectiveness of balance and resistance training in older adults T1 - Effektivität von Gleichgewichts- und Krafttraining bei älteren Menschen: beeinflussende Faktoren N2 - Hintergrund und Ziele: Altersbedingte Kraft- und Gleichgewichtsverluste sind mit Funktionseinschränkungen und einem erhöhten Sturzrisiko assoziiert. Kraft- und Gleichgewichtstraining haben das Potenzial, das Gleichgewicht und die Maximalkraft/Schnellkraft von gesunden älteren Menschen zu verbessern. Es ist jedoch noch nicht hinreichend untersucht, wie die Effektivität solcher Übungsprogramme von verschiedenen Faktoren beeinflusst wird. Hierzu gehören die Rolle der Rumpfmuskulatur, die Effekte von kombiniertem Kraft- und Gleichgewichtstraining sowie die Effekte der Trainingsanleitung. Die primären Ziele dieser Dissertation bestehen daher in der Überprüfung der Zusammenhänge von Rumpfkraft und Gleichgewichtsvariablen und der Effekte von kombiniertem Kraft- und Gleichgewichtstraining auf ein breites Spektrum an intrinsischen Sturzrisikofaktoren bei älteren Menschen. Ein wesentliches Ziel dieser Dissertation ist zudem die Überprüfung der Auswirkungen von angeleitetem gegenüber unangeleitetem Kraft- und/oder Gleichgewichtstraining auf Variablen des Gleichgewichts und der Maximal-/Schnellkraft bei älteren Menschen. Methoden: Gesunde ältere Erwachsene im Alter zwischen 63 und 80 Jahren wurden in einer Querschnittsstudie, einer Längsschnittstudie und einer Metaanalyse untersucht (Gruppenmittelwerte Meta-Analyse: 65.3-81.1 Jahre). Messungen des Gleichgewichts (statisches/dynamisches, proaktives, reaktives Gleichgewicht) wurden mittels klinischer (z. B. Romberg Test) und instrumentierter Tests (z. B. 10 Meter Gangtest inklusive elektrischer Erfassung von Gangparametern) durchgeführt. Die isometrische Maximalkraft der Rumpfmuskulatur wurde mit speziellen Rumpfkraft-Maschinen gemessen. Für die Überprüfung der dynamischen Maximal-/Schnellkraft der unteren Extremität wurden klinische Tests (z. B. Chair Stand Test) verwendet. Weiterhin wurde ein kombiniertes Kraft- und Gleichgewichtstraining durchgeführt, um trainingsbedingte Effekte auf Gleichgewicht und Maximal-/Schnellkraft sowie die Effekte der Trainingsanleitung bei älteren Erwachsenen zu untersuchen. Ergebnisse: Die Ergebnisse zeigten signifikante Korrelationen zwischen Rumpfkraft und statischem sowie ausgewählten Parametern des dynamischen Gleichgewichts (0.42 ≤ r ≤ 0.57). Kombiniertes Kraft- und Gleichgewichtstraining verbesserte das statische/dynamische (z. B. Romberg Test, Ganggeschwindigkeit), proaktive (z. B. Timed Up und Go Test) und reaktive Gleichgewicht (z. B. Push and Release Test) sowie die Maximal-/Schnellkraft (z. B. Chair Stand Test) von gesunden älteren Menschen (0.62 ≤ Cohen’s d ≤ 2.86; alle p < 0.05). Angeleitetes Training führte verglichen mit unangeleitetem Training zu größeren Effekten bei Gleichgewicht und Maximal-/Schnellkraft [Längsschnittstudie: Effekte in der angeleiteten Gruppe 0.26 ≤ d ≤ 2.86, Effekte in der unangeleiteten Gruppe 0.06 ≤ d ≤ 2.30; Metaanalyse: alle Standardisierte Mittelwertdifferenzen (SMDbs) zugunsten der angeleiteten Programme 0.24-0.53]. Die Metaanalyse zeigte zudem größere Effekte zugunsten der angeleiteten Programme, wenn diese mit komplett unbeaufsichtigten Programmen verglichen wurden (0.28 ≤ SMDbs ≤ 1.24). Diese Effekte zugunsten der angeleiteten Interventionen wurden jedoch abgeschwächt, wenn sie mit unangeleiteten Interventionen verglichen wurden, die wenige zusätzliche angeleitete Einheiten integrierten (−0.06 ≤ SMDbs ≤ 0.41). Schlussfolgerungen: Eine Aufnahme von Rumpfkraftübungen in sturzpräventive Trainingsprogramme für ältere Menschen könnte die Verbesserung von Gleichgewichtsparametern positiv beeinflussen. Die positiven Effekte auf eine Vielzahl wichtiger intrinsischer Sturzrisikofaktoren (z. B. Gleichgewichts-, Kraftdefizite) implizieren, dass besonders die Kombination aus Kraft- und Gleichgewichtstraining eine durchführbare und effektive sturzpräventive Intervention ist. Aufgrund größerer Effekte von angeleitetem im Vergleich zu unangeleitetem Training sollten angeleitete Einheiten in sturzpräventive Übungsprogramme für ältere Erwachsene integriert werden. N2 - Background and objectives: Age-related losses of lower extremity muscle strength/power and deficits in static and particularly dynamic balance are associated with impaired functional performance and the occurrence of falls. It has been shown that balance and resistance training have the potential to improve balance and muscle strength in healthy older adults. However, it is still open to debate how the effectiveness of balance and resistance training in older adults is influenced by different factors. This includes the role of trunk muscle strength, the comprehensive effects of combined balance and resistance training, and the role of exercise supervision. Therefore, the primary objectives of this doctoral thesis are to investigate the relationship between trunk muscle strength and balance performance and to examine the effects of an expert-based balance and resistance training protocol on various measures of balance and lower extremity muscle strength/power in older adults. Furthermore, the impact of supervised versus unsupervised balance and/or resistance training interventions in the elderly will be evaluated. Methods: Healthy older adults aged 63-80 years were included in a cross-sectional study, a longitudinal study, and a meta-analysis (range group means meta-analysis: 65.3-81.1 years) registering balance and muscle strength/power performance. Different measures of balance (i.e., static/dynamic, proactive, reactive) were examined using clinical (e.g., Romberg test) and instrumented tests (e.g., 10 meter walking test on a sensor-equipped walkway). Isometric strength of the trunk muscles was assessed using instrumented trunk muscle strength apparatus and lower extremity dynamic muscle strength/power was examined using clinical tests (e.g., Chair Stand Test). Further, a combined balance and resistance training protocol was applied to examine training-induced effects on balance and muscle strength/power as well as the role of supervision in older adults. Results: Findings revealed that measures of trunk muscle strength and static steady-state balance as well as specific measures of dynamic steady-state balance were significantly associated in the elderly (0.42 ≤ r ≤ 0.57). Combined balance and resistance training significantly improved older adults' static/dynamic steady-state (e.g., Romberg test; habitual gait speed), pro-active (e.g., Timed Up and Go Test), and reactive balance (e.g., Push and Release Test) as well as muscle strength/power (e.g., Chair Stand Test) (0.62 ≤ Cohen’s d ≤ 2.86; all p < 0.05). Supervised compared to unsupervised balance and/or resistance training was superior in enhancing older adults' balance and muscle strength/power performance regarding all observed outcome categories [longitudinal study: effects for the supervised group 0.26 ≤ d ≤ 2.86, effects for the unsupervised group 0.06 ≤ d ≤ 2.30; meta-analysis: all between-subject standardized mean differences (SMDbs) in favor of the supervised training programs 0.24-0.53]. The meta-analysis additionally showed larger effects in favor of supervised interventions when compared to completely unsupervised interventions (0.28 ≤ SMDbs ≤ 1.24). These effects in favor of the supervised programs faded when compared with studies that implemented a small amount of supervised sessions in their unsupervised interventions (−0.06 ≤ SMDbs ≤ 0.41). Conclusions: Trunk muscle strength is associated with steady-state balance performance and may therefore be integrated in fall-preventive exercise interventions for older adults. The examined positive effects on a large number of important intrinsic fall risk factors (e.g., balance deficits, muscle weakness) imply that particularly the combination of balance and resistance training appears to be a feasible and effective exercise intervention for fall prevention. Owing to the beneficial effects of supervised compared to unsupervised interventions, supervised sessions should be integrated in fall-preventive balance and/or resistance training programs for older adults. KW - Senioren KW - Gleichgewicht KW - Maximalkraft/Schnellkraft KW - Rumpfkraft KW - Gleichgewichtstraining KW - Krafttraining KW - Übungsanleitung KW - elderly KW - balance KW - lower extremity muscle strength/power KW - trunk muscle strength KW - balance training KW - resistance training KW - exercise supervision Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411826 ER - TY - THES A1 - Lenz, Susanne T1 - Der konsularische Schutz T1 - Consular Protection by German missions abroad BT - Notfälle Deutscher im Ausland N2 - Anlässlich der Zunahme von Entführungen deutscher Staatsangehöriger im Ausland und des im Jahr 2009 ergangenen Urteils des Bundesverwaltungsgerichts zu diesem Thema legt die vorliegende Arbeit eine detaillierte und umfassende Analyse der Rechtsgrundlagen für die Gewährung konsularischen Schutzes durch die Auslandsvertretungen der Bundesrepublik Deutschland vor. Das erste Kapitel beinhaltet eine detaillierte Darstellung der sich aus dem Völker-, Europa- und Verfassungsrecht sowie aus dem Konsulargesetz ergebenen staatlichen Handlungspflichten sowie möglicher damit einhergehender Individualansprüche auf die Ausübung konsularischen Schutzes im Einzelfall. Im zweiten Kapitel werden die Voraussetzungen der Gewährung konsularischen Schutzes nach dem Konsulargesetz dargestellt. Den Schwerpunkt bildet hierbei die Bestimmung des Anwendungsbereiches des § 5 Abs. 1 Satz 1 Konsulargesetz unter Berücksichtigung des Urteils des Bundesverwaltungsgerichtes vom 28.05.2009, welches nach Auffassung der Verfasserin den Anwendungsbereich dieser Norm verkennt. Bei § 5 Abs. 1 Satz 1 Konsulargesetz handelt es sich um eine besondere sozialhilferechtliche Norm außerhalb der SGB XII, welche die konsularische Hilfe allein in wirtschaftlichen Notlagen regelt. Das dritte Kapitel analysiert die bestehenden Regelungen über die Erstattung der im Rahmen der Gewährung konsularischen Schutzes entstandenen Kosten und erklärt deren Systematik. Ferner erfolgt ein Ausblick auf die künftigen Regelungen der Kostenerstattung nach dem Bundesgebührengesetz sowie der damit einhergehenden Rechtsverordnung. Zum Abschluss werden die Ergebnisse anhand eines historischen Falles zusammengefasst sowie ein Gesetzesvorschlag vorgestellt, welcher die gefundenen Unklarheiten und Unstimmigkeiten im Konsulargesetz beheben kann. N2 - The increase of abductions of German nationals abroad and the judgment of the Federal Administrative Court of 28th May 2009 led to the present detailed and comprehensive analysis of the legal background of the right to consular protection exercised by the German missions abroad. The first chapter gives a detailed overview of state obligations to grant consular protection and possible corresponding individual rights under international, European and German Constitutional law as well as the German Consular Act (Konsulargesetz). The second chapter analyzes the scope and the preconditions for the exercise of consular protection under the different legal norms of the German Consular Act. This chapter focuses on Article 5 para. 1 sentence 1 of the Consular Act and the above mentioned judgment of the Federal Administrative Court, which according to the author misjudges the scope of this legal norm. Article 5 of the Consular Act is a special provision of welfare law outside of the Social Code (SGB XII) applying only to emergencies resulting from a financial distress. The third chapter outlines the legal basis for state refund claims regarding the state expenses, which are made in connection with the exercise of consular protection. In addition it includes a short forecast on the future provisions of the Federal Fees Act (Bundesgebührengesetz) and its corresponding executive orders. The final chapter summarizes the results of this thesis based on an authentic historical case and contains a draft for a legal bill, which offers solutions to the found shortcomings in the present German Consular Act. KW - konsularischer Schutz KW - Konsulargesetz KW - konsularische Hilfe KW - Auslandsschutz KW - consular protection KW - Consular Act Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406069 ER - TY - THES A1 - Leonhardt, Helmar T1 - Chemotaxis, shape and adhesion dynamics of amoeboid cells studied by impedance fluctuations in open and confined spaces T1 - Chemotaxis, Formänderung und Adhäsionsdynamik amöboider Zellen gemessen durch Impedanzfluktuation N2 - Die vorliegende Arbeit befasst sich mit elektrischen Impedanzmessungen von ameoboiden Zellen auf Mikroelektroden. Der Modellorganismus Dictyostelium discoideum zeigt unter der Bedingung des Nahrungsentzugs einen Übergang zum kollektiven Verhalten, bei dem sich chemotaktische Zellen zu einem multizellulären Aggregat zusammenschliessen. Wir zeigen wie Impedanzaufnahmen über die Dynamik der Zell-substrat Adhäsion ein präzises Bild der Phasen der Aggregation liefern. Darüberhinaus zeigen wir zum ersten mal systematische Einzelzellmessungen von Wildtyp-Zellen und vier Mutanten, die sich in der Stärke der Substratadh äsion unterscheiden. Wir zeichneten die projizierte Zellfläche durch Zeitverlaufsmikroskopie auf und fanden eine Korrelation zwischen den quasi-periodischen Oszillationen in der Kinetik der projizierten Fläche - der Zellform-Oszillation - und dem Langzeittrend des Impedanzsignals. Amoeboidale Motilität offenbart sich typischerweise durch einen Zyklus von Membranausstülpung, Substratadhäsion, Vorwärtsziehen des Zellkörpers und Einziehen des hinteren Teils der Zelle. Dieser Motilitätszyklus resultiert in quasi-periodischen Oszillationen der projizierten Zellfläche und der Impedanz. In allen gemessenen Zelllinien wurden für diesen Zyklus ähnliche Periodendauern beobachtet trotz der Unterschiede in der Anhaftungsstärke. Wir beobachteten, dass die Stärke der Zell-substrat Anhaftung die Impedanz stark beeinflusst, indem die Abweichungen vom Mittelwert (die Grösse der Fluktuationen) vergrössert sind bei Zellen, die die vom Zytoskelett generierten Kräfte effektiv auf das Substrat übertragen. Zum Beispiel sind bei talA- Zellen, in welchen das Actin verankernde Protein Talin fehlt, die Fluktuationen stark reduziert. Einzelzellkraft-Spektroskopie und Ergebnisse eines Ablösungsassays, bei dem Adhäsionskraft gemessen wird indem Zellen einer Scherspannung ausgesetzt werden, bestätigen, dass die Grösse der Impedanz-fluktuationen ein korrektes Mass für die Stärke der Substratadhäsion ist. Schliesslich haben wir uns auch mit dem Einbau von Zell-substrat-Impedanz-Sensoren in mikro-fluidische Apparaturen befasst. Ein chip-basierter elektrischer Chemotaxis Assay wurde entwickelt, der die Geschwindigkeit chemotaktischer Zellen misst, welche entlang eines chemischen Konzentrationsgradienten über Mikroelektroden wandern. N2 - We present electrical impedance measurements of amoeboid cells on microelectrodes. The model organism Dictyostelium discoideum shows under starvation conditions a transition to collective behavior when chemotactic cells collect in multicellular aggregates. We show how impedance recordings give a precise picture of the stages of aggregation by tracing the dynamics of cell-substrate adhesion. Furthermore, we present for the first time systematic single cell measurements of wild type cells and four mutant strains that differ in their substrate adhesion strength. We recorded the projected cell area by time lapse microscopy and found a correlation between quasi-periodic oscillations in the kinetics of the projected area - the cell shape oscillation - and the long-term trend in the impedance signal. Typically, amoeboid motility advances via a cycle of membrane protrusion, substrate adhesion, traction of the cell body and tail retraction. This motility cycle results in the quasi-periodic oscillations of the projected cell area and the impedance. In all cell lines measured, similar periods were observed for this cycle, despite the differences in attachment strength. We observed that cell-substrate attachment strength strongly affects the impedance in that the deviations from mean (the magnitude of fluctuations) are enhanced in cells that effectively transmit forces, generated by the cytoskeleton, to the substrate. For example, in talA- cells, which lack the actin anchoring protein talin, the fluctuations are strongly reduced. Single cell force spectroscopy and results from a detachment assay, where adhesion is measured by exposing cells to shear stress, confirm that the magnitude of impedance fluctuations is a correct measure for the strength of substrate adhesion. Finally, we also worked on the integration of cell-substrate impedance sensors into microfluidic devices. A chip-based electrical chemotaxis assay is designed which measures the speed of chemotactic cells migrating over microelectrodes along a chemical concentration gradient. KW - ECIS KW - cell-substrate adhesion KW - cell movement KW - electrical chemotaxis assay KW - ECIS KW - Zell-substrat Adhäsion KW - Zell Bewegung KW - elektrischer Chemotaxis Assy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405016 ER - TY - THES A1 - Leupelt, Anke Verena T1 - Hormonelle Körpergewichtsregulation nach Gewichtsreduktion im Rahmen der multimodalen randomisierten Interventionsstudie MAINTAIN T1 - Hormonal Regulation of Weight Maintenance: Results of a randomized controlled trial analyzing the effects of a lifestyle intervention on weight maintenance in adults N2 - Adipositas wird mit einer Vielzahl schwerwiegender Folgeerkrankungen in Verbindung gebracht. Eine Gewichtsreduktion führt zu einer Verbesserung der metabolischen Folgen der Adipositas. Es ist bekannt, dass die Mehrzahl der adipösen Personen in den Monaten nach der Gewichtsreduktion einen Großteil des abgenommenen Gewichts wieder zunimmt. Nichtsdestotrotz existiert eine hohe Variabilität hinsichtlich des Langzeiterfolges einer Gewichtsreduktion. Der erfolgreiche Erhalt des reduzierten Körpergewichts einiger Personen führt zu der Frage nach den Faktoren, die einen Gewichtserhalt beeinflussen, mit dem Ziel einen Ansatzpunkt für mögliche Therapiestrategien zu identifizieren. In der vorliegenden Arbeit wurde im Rahmen einer kontrollierten, randomisierten Studie mit 143 übergewichtigen Probanden untersucht, ob nach einer dreimonatigen Gewichtsreduktion eine zwölfmonatige gewichtsstabilisierende Lebensstilintervention einen Einfluss auf die Veränderungen der neuroendokrinen Regelkreisläufe und damit auf den langfristigen Gewichtserhalt über einen Zeitraum von achtzehn Monaten hat. Hierbei wurde im Vergleich der beiden Behandlungsgruppen primär festgestellt, dass die multimodale Lebensstilintervention zu einer Gewichtstabilisierung über die Dauer dieser zwölfmonatigen Behandlungsphase führte. In der Kontrollgruppe kam es zu einer moderaten Gewichtszunahme . Dadurch war nach Beendigung der Interventionsphase der BMI der Teilnehmer in der Kontrollgruppe höher als der in der Interventionsgruppe (34,1±6,0 kg*m-2 vs. 32,4±5,7 kg*m-2; p<0,01). Während der Nachbeobachtungszeit war die Interventionsgruppe durch eine signifikant stärkere Gewichtswiederzunahme im Vergleich zur Kontrollgruppe gekennzeichnet, so dass der BMI zwischen beiden Behandlungsgruppen bereits sechs Monate nach der Intervention keinen Unterschied mehr aufwies. Bezüglich der hormonellen Veränderung durch die Gewichtsreduktion wurde, wie erwartet, eine Auslenkung des endokrinen Systems beobachtet. Jedoch konnte kein Unterschied der untersuchten Hormone im Vergleich der beiden Behandlungsgruppen ausfindig gemacht werden. Im Verlauf der Gewichtsabnahme und der anschließenden Studienphasen zeigten sich tendenziell drei verschiedene Verlaufsmuster in den hormonellen Veränderungen. Nach einer zusätzlichen Adjustierung auf den jeweiligen BMI des Untersuchungszeitpunktes konnte für die TSH-Spiegel (p<0,05), die Schilddrüsenhormone (p<0,001) und für die IGF 1-Spiegel (p<0,001) eine über die Studienzeit anhaltende Veränderung festgestellt werden. Abschließend wurde behandlungsgruppenunabhängig untersucht, ob die Hormonspiegel nach Gewichtsreduktion oder ob die relative hormonelle Veränderung während der Gewichtsreduktion prädiktiv für den Erfolg der Gewichterhaltungsphase ist. Hier fand sich für die Mehrzahl der hormonellen Parameter kein Effekt auf die Langzeitentwicklung der Gewichtszunahme. Jedoch konnte gezeigt werden, dass eine geringere Abnahme der 24h Urin-Metanephrin-Ausscheidung während der Gewichtsabnahmephase mit einem besseren Erfolg bezüglich des Gewichtserhalts über die achtzehnmonatige Studienzeit assoziiert war (standardisiertes Beta= -0,365; r2=0,133 p<0,01). Die anderen hormonellen Achsen zeigten keinen nachweislichen Effekt. N2 - Although it is known that obesity is associated with a variety of serious conditions, there is no consensus regarding the optimal therapy for severely obese people. Unfortunately the majority of conventional weight loss therapies often fail long term and diet-induced weight loss is accompanied by several physiological changes and neuroendocrine responses that encourage weight regain. The present research addresses the question whether the hormonal counter-regulation can be modified by a behavioral weight maintenance intervention (diet, excercise, behavioral treatment) and whether such an intervention strategy could support long-term body weight maintenance. Moreover, this thesis focused on the potential predictive role of several hormonal circuits on long-term weight control. In the present study the influence of a twelve-month, weight-stabilizing lifestyle intervention on long-term weight maintenance across 18 months was assessed in a randomized controlled trial. 156 subjects participated in the weight reduction program. 143 subjects reduced their body weight by at least 8% of baseline (inclusion criterion) and were randomized to the maintenance trial. 112 female and 31 male participants were examined. Weight regain after 18 months (T18), defined as changes of BMI between randomization (T0) and T18, was the primary outcome of the trial. The evaluation of endocrine parameters involved in energy homeostasis was a pre-defined secondary outcome. Mean BMI was reduced by 4.67±1.47 kg*m-2 (12.6±3.7 %) during the initial weight loss period. The multimodal lifestyle intervention improved the weight maintenance after weight loss compared to control . However, this effect did not persist in the 6-month follow up and no BMI difference was observed at T18. Furthermore, the initial weight loss induced partially persisting hormonal changes of IGF-1, fT3, fT4, Leptin and Insulin. Changes of sympathetic nervous activity, TSH, GLP-1 and GIP were almost reversed within 18 months. The variability of weight regain at T18 was considerable, but comparable in both groups. Numerous hormonal alterations were found after weight loss. However, exclusively metanephrine excretion independently predicted regainBMI (standardized beta= -0.365, r2=0.134; p<0.01), while all other hormonal circuits analysed here had no predictive power. The 12-month lifestyle intervention did not modify any of these endocrine circuits. In conclusion, a 12-months multimodal lifestyle intervention regarding weight loss maintenance demonstrated a substantial benefit only as long as the subsequent maintenance intervention was performed. However, the hormonal response was not additionally affected by this intervention. KW - Adipositas KW - Körpergewichtsregulation KW - Hormone KW - Gewichtserhalt KW - randomisierte Studie KW - obesity KW - weight regulation KW - hormones KW - weight maintenance KW - randomized controlled trial Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413181 ER - TY - THES A1 - Lindblad Petersen, Oliver T1 - The Cauchy problem for the linearised Einstein equation and the Goursat problem for wave equations T1 - Das Cauchyproblem für die linearisierte Einsteingleichung und das Goursatproblem für Wellengleichungen N2 - In this thesis, we study two initial value problems arising in general relativity. The first is the Cauchy problem for the linearised Einstein equation on general globally hyperbolic spacetimes, with smooth and distributional initial data. We extend well-known results by showing that given a solution to the linearised constraint equations of arbitrary real Sobolev regularity, there is a globally defined solution, which is unique up to addition of gauge solutions. Two solutions are considered equivalent if they differ by a gauge solution. Our main result is that the equivalence class of solutions depends continuously on the corre- sponding equivalence class of initial data. We also solve the linearised constraint equations in certain cases and show that there exist arbitrarily irregular (non-gauge) solutions to the linearised Einstein equation on Minkowski spacetime and Kasner spacetime. In the second part, we study the Goursat problem (the characteristic Cauchy problem) for wave equations. We specify initial data on a smooth compact Cauchy horizon, which is a lightlike hypersurface. This problem has not been studied much, since it is an initial value problem on a non-globally hyperbolic spacetime. Our main result is that given a smooth function on a non-empty, smooth, compact, totally geodesic and non-degenerate Cauchy horizon and a so called admissible linear wave equation, there exists a unique solution that is defined on the globally hyperbolic region and restricts to the given function on the Cauchy horizon. Moreover, the solution depends continuously on the initial data. A linear wave equation is called admissible if the first order part satisfies a certain condition on the Cauchy horizon, for example if it vanishes. Interestingly, both existence of solution and uniqueness are false for general wave equations, as examples show. If we drop the non-degeneracy assumption, examples show that existence of solution fails even for the simplest wave equation. The proof requires precise energy estimates for the wave equation close to the Cauchy horizon. In case the Ricci curvature vanishes on the Cauchy horizon, we show that the energy estimates are strong enough to prove local existence and uniqueness for a class of non-linear wave equations. Our results apply in particular to the Taub-NUT spacetime and the Misner spacetime. It has recently been shown that compact Cauchy horizons in spacetimes satisfying the null energy condition are necessarily smooth and totally geodesic. Our results therefore apply if the spacetime satisfies the null energy condition and the Cauchy horizon is compact and non-degenerate. N2 - In der vorliegenden Arbeit werden zwei Anfangswertsprobleme aus der Allgemeinen Relativitätstheorie betrachtet. Das erste ist das Cauchyproblem für die linearisierte Einsteingleichung auf allgemeinen global hyperbolischen Raumzeiten mit glatten und distributionellen Anfangsdaten. Wir verallgemeinern bekannte Ergebnisse, indem wir zeigen, dass für jede gegebene Lösung der linearisierten Constraintgleichungen mit reeller Sobolevregularität eine global definierte Lösung existiert, die eindeutig ist bis auf Addition von Eichlösungen. Zwei Lösungen sind äquivalent falls sie sich durch eine Eichlösung unterscheiden. Unser Hauptergebnis ist, dass die äquivalenzklasse der Lösungen stetig von der zugehörigen Äquivalenzklasse der Anfangsdaten abhängt. Wir lösen auch die linearisierten Constraintgleichungen in Spezialfällen und zeigen, dass beliebig irreguläre (nicht Eich-) Lösungen der linearisierten Einsteingleichungen auf der Minkowski-Raumzeit und der Kasner-Raumzeit existieren. Im zweiten Teil betrachten wir das Goursatproblem (das charakteristische Cauchyproblem) für Wellengleichungen. Wir geben Anfangsdaten auf einem Cauchyhorizont vor, der eine lichtartige Hyperfläche ist. Dieses Problem wurde bisher noch nicht viel betrachtet, weil es ein Anfangswertproblem auf einer nicht global hyperbolischen Raumzeit ist. Unser Hauptergebnis ist: Gegeben eine glatte Funktion auf einem nicht-leeren glatten, kompakten, totalgeodätischen und nicht-degenerierten Cauchyhorizont und eine so genannte zulässige Wellengleichung, dann existiert eine eindeutige Lösung, die auf dem global hyperbolischen Gebiet definiert ist und deren Einschränkung auf dem Cauchyhorizont die gegebene Funktion ist. Die Lösung hängt stetig von den Anfangsdaten ab. Eine Wellengleichung heißt zulässig, falls der Teil erster Ordnung eine gewisse Bedingung am Cauchyhorizont erfüllt, zum Beispiel falls er gleich Null ist. Interessant ist, dass Existenz der Lösung und Eindeutigkeit falsch sind für allgemeine Wellengleichungen, wie Beispiele zeigen. Falls wir die Bedingung der Nichtdegeneriertheit weglassen, ist Existenz von Lösungen falsch sogar für die einfachste Wellengleichung. Der Beweis benötigt genaue Energieabschätzungen für die Wellengleichung nahe am Cauchyhorizont. Im Fall, dass die Ricci-Krümmung am Cauchyhorizont verschwindet, zeigen wir, dass die Energieabschätzungen stark genug sind, um lokale Existenz und Eindeutigkeit für eine Klasse von nicht-linearen Wellengleichungen zu zeigen. Unser Ergebnis ist zum Beispiel auf der Taub-NUT-Raumzeit oder der Misner-Raumzeit gültig. Es wurde vor kurzem gezeigt, dass kompakte Cauchyhorizonte in Raumzeiten, die die Nullenergiebedingung erfüllen, notwendigerweise glatt und totalgeodätisch sind. Unsere Ergebnisse sind deshalb auf Raumzeiten gültig, die die Nullenergiebedingung erfüllen, wenn der Cauchyhorizont kompakt und nicht-degeneriert ist. KW - Cauchy horizon KW - the Goursat problem KW - the characteristic Cauchy problem KW - wave equation KW - the Cauchy problem KW - gravitational wave KW - the linearised Einstein equation KW - Cauchyhorizont KW - das Goursatproblem KW - das charakteristische Cauchyproblem KW - Wellengleichung KW - das Cauchyproblem KW - Gravitationswelle KW - die linearisierte Einsteingleichung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410216 ER - TY - THES A1 - Lorente Sánchez, Alejandro Jose T1 - Synthesis of side-chain polystyrenes for all organic solution processed OLEDs T1 - Synthese von Seitenketten-Polystyrolen für lösungsgefertigte OLEDs N2 - In the present work side-chain polystyrenes were synthesized and characterized, in order to be applied in multilayer OLEDs fabricated by solution process techniques. Manufacture of optoelectronic devices by solution process techniques is meant to decrease significantly fabrication cost and allow large scale production of such devices. This dissertation focusses in three series, enveloped in two material classes. The two classes differ to each other in the type of charge transport exhibited, either ambipolar transport or electron transport. All materials were applied in all-organic solution processed green Ir-based devices. In the first part, a series of ambipolar host materials were developed to transport both charge types, holes and electrons, and be applied especially as matrix for green Ir-based emitters. It was possible to increase devices efficacy by modulating the predominant charge transport type. This was achieved by modification of molecules electron transport part with more electron-deficient heterocycles or by extending the delocalization of the LUMO. Efficiencies up to 28.9 cd/A were observed for all-organic solution-process three layer devices. In the second part, suitability of triarylboranes and tetraphenylsilanes as electron transport materials was studied. High triplet energies were obtained, up to 2.95 eV, by rational combination of both molecular structures. Although the combination of both elements had a low effect in materials electron transport properties, high efficiencies around 24 cd/A were obtained for the series in all-organic solution-processed two layer devices. In the last part, benzene and pyridine were chosen as the series electron-transport motif. By controlling the relative pyridine content (RPC) solubility into methanol was induced for polystyrenes with bulky side-chains. Materials with RPC ≥ 0.5 could be deposited orthogonally from solution without harming underlying layers. From the best of our knowledge, this is the first time such materials are applied in this architecture showing moderate efficiencies around 10 cd/A in all-organic solution processed OLEDs. Overall, the outcome of these studies will actively contribute to the current research on materials for all-solution processed OLEDs. N2 - Organische Licht emittierende Dioden (OLEDs) gelten als die nächste Technologie für Beleuchtungsanwendungen. In letzter Zeit wurden immer mehr kommerzielle Produkte herausgebracht, für die Anwendung in Displays und Beleuchtungssystemen. Doch diese Produkte werden hauptsächlich durch Vakuumabscheidung der organischen Moleküle hergestellt, was hohe Fertigungskosten zur Folge hat. Um die Kosten zu senken, sollten die Geräte über Lösungsverfahren hergestellt werden, was die Produktion durch Drucktechniken ermöglicht. Allerdings gibt es noch einige Herausforderungen bei den Lösungsprozessen, auch bei der Verarbeitung bekannter Materialien, die überwunden werden müssen, wie Rekristallisation oder schlechte Filmbildung. Deshalb sind weitere Materialmodifikationen erforderlich. Ein sehr verbreiteter Ansatz ist die Einarbeitung von Materialien, die im Vakuum verarbeitet werden können, wie Seitenkettenpolymer-Rückgräte. Wir haben in dieser Arbeit drei Reihen von Seitenketten-Polystyrolen synthetisiert und charakterisiert. Die Polymere der ersten Reihe sollten als Hostmaterialien für phosphoreszierende Emitter in der Emissionsschicht dienen. Die Polymere der zweiten und dritten Reihe fungierten als Elektron-Transport-Materialien. Die Polymereigenschaften wurden durch Änderungen der molekularen Struktur der Seitenketten modifiziert. Von allen Materialien wurden dünne Schichten aus Lösung abgeschieden und diese on grünen Ir-basierten OLEDs untersucht. Für alle organischen, aus Lösung gefertigten OLEDs wurden Effizienzen von bis zu 28,9 cd/A erreicht. KW - OLED KW - solution process KW - charge transport KW - polymers KW - OLED KW - Lösungsprozess KW - Ladung Transport KW - Polymere Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398006 ER - TY - THES A1 - Lubitz, Christin T1 - Investigating local surface displacements associated with anthropogenic activities by satellite radar interferometry T1 - Untersuchung lokaler Verschiebungen der Erdoberfläche im Zusammenhang mit anthropogenen Aktivitäten durch satellitengestützte Radarinterferometrie BT - application to Staufen im Breisgau and Ketzin BT - Anwendung für Staufen im Breisgau und Ketzin N2 - Direct anthropogenic influences on the Earth’s subsurface during drilling, extraction or injection activities, can affect land stability by causing subsidence, uplifts or lateral displacements. They can occur in localized as well as in uninhabited and inhabited regions. Thus the associated risks for humans, infrastructure, and environment must be minimized. To achieve this, appropriate surveillance methods must be found that can be used for simultaneous monitoring during such activities. Multi-temporal synthetic aperture radar interferometry (MT-InSAR) methods like the Persistent Scatterer Interferometry (PSI) and the Small BAseline Subsets (SBAS) have been developed as standard approaches for satellite-based surface displacement monitoring. With increasing spatial resolution and availability of SAR sensors in recent years, MT-InSAR can be valuable for the detection and mapping of even the smallest man-made displacements. This doctoral thesis aims at investigating the capacities of the mentioned standard methods for this purpose, and comprises three main objectives against the backdrop of a user-friendly surveillance service: (1) the spatial and temporal significance assessment against leveling, (2) the suitability evaluation of PSI and SBAS under different conditions, and (3) the analysis of the link between surface motion and subsurface processes. Two prominent case studies on anthropogenic induced subsurface processes in Germany serve as the basis for this goal. The first is the distinct urban uplift with severe damages at Staufen im Breisgau that has been associated since 2007 with a failure to implement a shallow geothermal energy supply for an individual building. The second case study considers the pilot project of geological carbon dioxide (CO2) storage at Ketzin, and comprises borehole drilling and fluid injection of more than 67 kt CO2 between 2008 and 2013. Leveling surveys at Staufen and comprehensive background knowledge of the underground processes gained from different kinds of in-situ measurements at both locations deliver a suitable basis for this comparative study and the above stated objectives. The differences in location setting, i.e. urban versus rural site character, were intended to investigate the limitations in the applicability of PSI and SBAS. For the MT-InSAR analysis, X-band images from the German TerraSAR-X and TanDEM-X satellites were acquired in the standard Stripmap mode with about 3 m spatial resolution in azimuth and range direction. Data acquisition lasted over a period of five years for Staufen (2008-2013), and four years for Ketzin (2009-2013). For the first approximation of the subsurface source, an inversion of the InSAR outcome in Staufen was applied. The modeled uplift based on complex hydromechanical simulations and a correlation analysis with bottomhole pressure data were used for comparison with MT-InSAR measurements at Ketzin. In response to the defined objectives of this thesis, a higher level of detail can be achieved in mapping surface displacements without in-situ effort by using MT-InSAR in comparison to leveling (1). A clear delineation of the elliptical shaped uplift border and its magnitudes at different parts was possible at Staufen, with the exception of a vegetated area in the northwest. Vegetation coverage and the associated temporal signal decorrelation are the main limitations of MT-InSAR as clearly demonstrated at the Ketzin test site. They result in insufficient measurement point density and unwrapping issues. Therefore, spatial resolutions of one meter or better are recommended to achieve an adequate point density for local displacement analysis and to apply signal noise reduction. Leveling measurements can provide a complementary data source here, but require much effort pertaining to personnel even at the local scale. Horizontal motions could be identified at Staufen by only comparing the temporal evolution of the 1D line of sight (LOS) InSAR measurements with the available leveling data. An exception was the independent LOS decomposition using ascending and descending data sets for the period 2012-2013. The full 3D displacement field representation failed due to insufficient orbit-related, north-south sensitivity of the satellite-based measurements. By using the dense temporal mapping capabilities of the TerraSAR-X/TanDEM-X satellites after every 11 days, the temporal displacement evolution could be captured as good as that with leveling. With respect to the tested methods and in the view of generality, SBAS should be preferred over PSI (2). SBAS delivered a higher point density, and was therefore less affected by phase unwrapping issues in both case studies. Linking surface motions with subsurface processes is possible when considering simplified geophysical models (3), but it still requires intensive research to gain a deep understanding. N2 - Die Stabilität der oberen Gesteinsschichten kann durch anthropogene Aktivitäten, wie Bohrungen, Gas- oder Fluidextraktionen, beziehungsweise –injektionen, so beeinflusst werden, dass Oberflächenhebungen, Senkungen und seitliche Lageverschiebungen auftreten können. Diese Bewegungen können lokal begrenzt sein, in bewohnten als auch unbewohnten Gebieten in Erscheinung treten und ein Risiko für Mensch, Umwelt und Infrastruktur darstellen. Die Einschätzung und Überwachung dieser Risiken kann lokal durch geophysikalische und geodätische Verfahren erfolgen, und mittels fernerkundlichen Analysen in einen räumlich zeitlichen Zusammenhang gebracht werden. Methoden der Synthetischen Apertur Radar Interferometrie (MT-InSAR) wie die Persistent Scatterer Interferometry (PSI) oder das Small BAseline Subsets (SBAS) Verfahren haben sich als Standardanwendung für die satellitengestützte Messung von Oberflächenverschiebungen etabliert. Immer hochauflösendere Systeme sowie die Zunahme an zur Verfügung stehenden Sensoren in den letzten Jahren erlauben das Aufspüren und Kartieren von kleinsten menschengemachten Bewegungen der oberen Gesteinsschichten mittels MT-InSAR. Ziel dieser Doktorarbeit ist die Untersuchung der oben genannten Standardmethoden hinsichtlich ihrer Eignung zur räumlich zeitlichen Analyse von lokalen Bewegungen. Vor dem Hintergrund einer nutzerfreundlichen Anwendung werden dabei drei Punkte eingehend betrachtet: (1) die Bewertung der raum-zeitlichen Signifikanz gegenüber dem Nivellement, (2) die Eignungsbeurteilung beider Methoden unter verschiedenen Bedingungen und (3) die Analyse der Verknüpfbarkeit von Oberflächenbewegungen und Untergrundprozessen. Als Grundlage für diese Untersuchung dienen zwei bekannte Bohrprojekte in Deutschland. Das erste ist ein fehlgeschlagenes Projekt zur geothermalen Energieversorgung eines einzelnen Gebäudes in Staufen im Breisgau im Jahr 2007. Damit in Verbindung steht eine ausgeprägte innerstädtische Hebung mit ernsten Schäden an der Wohnbebauung. Das zweite ist ein Pilotprojekt zur geologischen Speicherung von Kohlenstoffdioxid (CO2) in Ketzin, welches Bohrungen und Fluidinjektionen von mehr als 67 kt CO2 zwischen 2008 und 2013 umfasst. Die Nivellement-Messungen in Staufen sowie das umfangreiche Hintergrundwissen durch verschiedene in-situ Messungen zu den Untergrundprozessen an beiden Standorten bieten eine solide Grundlage für diese vergleichende Studie und ihre Ziele. Da beide Standorte sich stark unterscheiden, insbesondere hinsichtlich ihres städtischen beziehungsweise ländlichen Charakters, erlauben diese Fallstudien eine Untersuchungen der Grenzen in der Anwendbarkeit von den Methoden PSI und SBAS. Für die Untersuchung wurden Bilddaten im X-Band von den deutschen Satelliten TerraSAR-X und TanDEM-X im Standardmodus Stripmap mit etwa 3m Azimut- und Entfernungsauflösung aufgenommen. Die Datenakquise für Staufen umfasste fünf Jahre (2008-2013) und für Ketzin vier Jahre (2009-2013). In Staufen wurde durch eine Inversion der InSAR-Resultate eine erste Näherung zur Lokalisierung einer Volumenexpansion im Untergrund erzielt, welche ursächlich für die an der Oberfläche beobachteten Hebungen ist. Für das Ketzin-Projekt wurden komplexe hydromechanische Simulationen durchgeführt und darauf basierende modellierte Hebungen zum Vergleich mit den MT-InSAR-Messungen herangezogen. Zusätzlich erfolgte eine vergleichende Korrelationsanalyse mit den Druckdaten aus der Injektionsbohrung. In dieser Arbeit konnte gezeigt werden, dass Im Vergleich zu den gängigen Nivellement-Messungen ein deutlich höherer Detailgrad in der Kartierung der Oberflächenbewegungen durch das fernerkundliche MT-InSAR Verfahren erlangt werden konnte (1). Die klare Abgrenzung des elliptischen Hebungsfeldes in Staufen sowie seiner variierenden Magnituden an verschiedenen Positionen konnte deutlich gezeigt werden, mit Ausnahme einer Vegetationsfläche im nordwestlichen Abschnitt. Die Fallstudie zu Ketzin demonstriert ebenfalls die methodischen Einschränkungen bei MT-InSAR durch Vegetation und den damit einhergehenden Signalverlusten. Als Folge traten eine unzureichende Messpunktdichte und Probleme in der Phasenabwicklung auf. Eine räumliche Auflösungen von einem Meter oder besser würde die Wahrscheinlichkeit einer geeigneten Punktdichte erhöhen. Außerdem ermöglicht sie die Anwendung passender Methoden zur Rauschreduzierung des Signals unter geringen Verlusten in der räumlichen Auflösung. Dennoch zeigte sich, dass Nivellement-Kampagnen als ergänzende Datenquelle wertvolle Informationen liefern, auch wenn diese einen hohen Arbeitsaufwand selbst für lokale Ereignisse erfordern. Die Identifizierung von Horizontalbewegungen in Staufen war nur durch den Vergleich des zeitlichen Hebungsverlaufes von Nivellement- und den 1D InSAR-Resultaten festellbar. Eine Ausnahme bildete die davon unabhängige Verschneidung zweier Datensätze von je einem aufsteigenden und absteigenden Orbit für den Zeitraum 2012-2013. Die Darstellung eines kompletten, satellitengestützten 3D-Bewegungsfeldes scheitert an der ungenügenden, umlaufbahnbedingten Sensitivität in Nord-Süd-Richtung. Die zeitlich dichte Kartierung durch TerraSAR-X und TanDEM-X alle 11 Tage ermöglicht eine ebenso detaillierte zeitliche Erfassung der Entwicklung wie mittels Nivellement. Die Untersuchungen an beiden Standorten haben gezeigt, dass das SBAS-Verfahren im Allgemeinen nützlichere Ergebnisse liefert, als das PSI-Verfahren (2). Das SBAS-Verfahren lieferte die höhere Punktdichte und zeigte aufgrund dessen weniger Probleme bei der Phasenabwicklung. Die Verknüpfung von Bewegungen in den oberen Gesteinsschichten mit deren ursächlichen Untergrundprozessen ist unter Einbeziehung vereinfachter geophysikalischer Modelle möglich (3), verlangt aber noch weiterführende Analysen für ein tieferes Verständnis. KW - synthetic aperture radar interferometry KW - time series investigation KW - monitoring of anthropogenic activities KW - Staufen im Breisgau KW - Ketzin KW - Radarinterferometrie mit synthetischer Apertur KW - Zeitreihenuntersuchung KW - Beobachtung anthropogener Aktivitäten KW - Staufen im Breisgau KW - Ketzin Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416001 ER - TY - THES A1 - Lysyakova, Liudmila T1 - Interaction of azobenzene containing surfactants with plasmonic nanoparticles T1 - Wechselwirkung zwischen Azobenzol-haltigen Tensiden und plasmonischen Nanoteilchen N2 - The goal of this thesis is related to the question how to introduce and combine simultaneously plasmonic and photoswitching properties to different nano-objects. In this thesis I investigate the complexes between noble metal nanoparticles and cationic surfactants containing azobenzene units in their hydrophobic tail, employing absorption spectroscopy, surface zeta-potential, and electron microscopy. In the first part of the thesis, the formation of complexes between negatively charged laser ablated spherical gold nanoparticles and cationic azobenzene surfactants in trans- conformation is explored. It is shown that the constitution of the complexes strongly depends on a surfactant-to-gold molar ratio. At certain molar ratios, particle self-assembly into nanochains and their aggregation have been registered. At higher surfactant concentrations, the surface charge of nanoparticles turned positive, attributed to the formation of the stabilizing double layer of azobenzene surfactants on gold nanoparticle surfaces. These gold-surfactant complexes remained colloidally stable. UV light induced trans-cis isomerization of azobenzene surfactant molecules and thus perturbed the stabilizing surfactant shell, causing nanoparticle aggregation. The results obtained with silver and silicon nanoparticles mimick those for the comprehensively studied gold nanoparticles, corroborating the proposed model of complex formation. In the second part, the interaction between plasmonic metal nanoparticles (Au, Ag, Pd, alloy Au-Ag, Au-Pd), as well as silicon nanoparticles, and cis-isomers of azobenzene containing compounds is addressed. Cis-trans thermal isomerization of azobenzenes was enhanced in the presence of gold, palladium, and alloy gold-palladium nanoparticles. The influence of the surfactant structure and nanoparticle material on the azobenzene isomerization rate is expounded. Gold nanoparticles showed superior catalytic activity for thermal cis-trans isomerization of azobenzenes. In a joint project with theoretical chemists, we demonstrated that the possible physical origin of this phenomenon is the electron transfer between azobenzene moieties and nanoparticle surfaces. In the third part, complexes between gold nanorods and azobenzene surfactants with different tail length were exposed to UV and blue light, inducing trans-cis and cis-trans isomerization of surfactant, respectively. At the same time, the position of longitudinal plasmonic absorption maximum of gold nanorods experienced reversible shift responding to the changes in local dielectric environment. Surface plasmon resonance condition allowed the estimation of the refractive index of azobenzene containing surfactants in solution. N2 - Das Ziel dieser Arbeit ist mit der Fragestellung verwandt, wie plasmonische und photoschaltende Eigenschaften in Nano-Objekten simultan herbeigeführt und kombiniert werden können. Diese Arbeit untersucht Komplexe aus Edelmetall-Nanoteilchen und kationischen Tensiden, deren hydrophober Teil Azobenzol enthält, mithilfe von Absorptionsspektroskopie, Oberflächen-Zeta-Potentialen und Elektronenmikroskopie. Im Teil 1 wird die Bildung von Komplexen aus negativ geladenen, Laser ablatierten, sphärischen Goldnanopartikeln und kationischen Azobenzol-haltigen Tensiden in trans-Konfiguration untersucht. Es wird gezeigt, dass die Zusammensetzung des Komplexes stark vom Tensid-Gold Molverhältnis abhängt. Bei bestimmten Molverhältnissen wurde beobachtet, dass sich die Partikel selbst zu Nanoketten zusammensetzten und aggregieren. Bei höheren Tensid-Konzentrationen wurde die Oberflächen-Ladung der Nanopartikel positiv, erklärt durch das Formen einer stabilen Doppel-Schicht von azobenzolhaltigen Tensiden auf der Gold-Oberfläche. Diese Gold-Tensidkomplexe bleiben kolloidal stabil. UV-Licht induziert eine Trans-Cis Isomerisation von Azobenzoltensidmolekülen und stört somit die stabilisierenden Tensidhüllen, welche die Nanopartikelaggregation bewirken. Die Ergebnisse der Silber- und Silikonnanopartikel decken sich mit den Ergebnissen der ausführlich untersuchten Goldnanopartikel, was den vorgeschlagenen Mechanismus der Komplexbildung bekräftigt. Im Teil 2 wird die Wechselwirkung zwischen plasmonischen Metallnanopartikeln und Cis-Isomeren der Azobenzol beinhaltenden Verbindungen adressiert. Die Studie beinhaltet Gold, Silber, Palladium, Gold-Silber und Gold-Palladium Legierungen, und außerdem Silikonnanopartikel, und eine Serie von Azobenzol-Derivaten. Cis-Trans thermale Isomerisation von Azobenzolen wurde verbessert in der Gegenwart von Gold, Palladium und Gold-Palladium legierten Nanopartikeln. Der Einfluss der Tensidstruktur und Nanopartikelmaterialien auf die Isomerisationsrate wird erläutert. Goldnanopartikel zeigen eine hervorragende katalytische Aktivität für die thermale Cis-Trans Isomerisation von Azobenzolen. In einem gemeinsamen Projekt mit Theoretischen Chemikern haben wir demonstriert, dass ein möglicher Mechanismus der Elektronentransfer von der absorbierten Azobenzolhälfte zur Goldoberfläche ist. Im Teil 3 werden die Komplexe zwischen Goldnanostäbchen und Azobenzol-haltigen Timethylammoniumbromide mit verschiedenen Endlängen UV-Licht und blauem Licht ausgesetzt, was eine Trans-Cis und Cis-Trans Isomerisation von Tensiden induziert. Zur gleichen Zeit erfährt das longitudinale plasmonische Absorptionsmaximum von Goldnanostäbchen eine reversible Verschiebung als Reaktion auf die Änderungen in der lokalen dielektrischen Umgebung. Die Oberflächenplasmonenresonanzbedingung erlaubte die Bestimmung des Brechungsindex von Azobenzol-haltigen Tensiden in wässeriger Lösung. KW - azobenzene surfactant KW - Azobenzol-haltiges Tensid KW - plasmon nano-particles KW - plasmonische Nanopartikeln KW - catalytic azobenzene isomerization KW - katalytische Isomerisation von Azobenzolen KW - azobenzene refractive index KW - Brechungsindex von Azobenzol-haltigen Tensiden KW - азобензолсодержащие ПАВ KW - плазмонные наночастицы KW - каталитическая изомеризация азобензолов KW - показатель преломления азобензолов Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403359 ER - TY - THES A1 - Mahlstedt, Robert T1 - Essays on job search behavior and labor market policies T1 - Empirische Studien zum Arbeitssuchverhalten und aktiver Arbeitsmarktpolitik BT - the role of subjective beliefs, geographical mobility and gender differences BT - der Einfluss subjektiver Erwartungen, regionaler Mobilität und geschlechtsspezifischen Unterschieden N2 - Persistently high unemployment rates are a major threat to the social cohesion in many societies. To moderate the consequences of unemployment industrialized countries spend substantial shares of their GDP on labor market policies, while in recent years there has been a shift from passive measures, such as transfer payments, towards more activating elements which aim to promote the reintegration into the labor market. Although, there exists a wide range of evidence about the effects of traditional active labor market policies (ALMP) on participants’ subsequent labor market outcomes, a deeper understanding of the impact of these programs on the job search behavior and the interplay with long-term labor market outcomes is necessary. This allows policy makers to improve the design of labor market policies and the allocation of unemployed workers into specific programs. Moreover, previous studies have shown that many traditional ALMP programs, like public employment or training schemes, do not achieve the desired results. This underlines the importance of understanding the effect mechanisms, but also the need to develop innovative programs that are more effective. This thesis extends the existing literature with respect to several dimensions. First, it analyzes the impact of job seekers’ beliefs about upcoming ALMPs programs on the effectiveness of realized treatments later during the unemployment spell. This provides important insights with respect to the job search process and relates potential anticipation effects (on the job seekers behavior before entering a program) to the vast literature evaluating the impact of participating in an ALMP program on subsequent outcomes. The empirical results show that training programs are more effective if the participants expect participation ex ante, while expected treatment effects are unrelated to the actual labor market outcomes of participants. A subsequent analysis of the effect mechanisms shows that job seekers who expect to participate also receive more information by their caseworker and show a higher willingness to adjust their search behavior in association with an upcoming ALMP program. The findings suggest that the effectiveness of training programs can be improved by providing more detailed information about the possibility of a future treatment early during the unemployment spell. Second, the thesis investigates the effects of a relatively new class of programs that aim to improve the geographical mobility of unemployed workers with respect to the job search behavior, the subsequent job finding prospects and the returns to labor market mobility. To estimate the causal impact of these programs, it is exploited that local employment agencies have a degree of autonomy when deciding about the regional-specific policy mix. The findings show that the policy style of the employment agency indeed affects the job search behavior of unemployed workers. Job seekers who are assigned to agencies with higher preferences for mobility programs increase their search radius without affecting the total number of job applications. This shift of the search effort to distant regions leads to a higher probability to find a regular job and higher wages. Moreover, it is shown that participants in one of the subsidy programs who move to geographically distant region a earn significantly higher wages, end up in more stable jobs and face a higher long-run employment probability compared to non-participants. Third, the thesis offers an empirical assessment of the unconfoundedness assumption with respect to the relevance of variables that are usually unobserved in studies evaluating ALMP programs. A unique dataset that combines administrative records and survey data allows us to observe detailed information on typical covariates, as well as usually unobserved variables including personality traits, attitudes, expectations, intergenerational information, as well as indicators about social networks and labor market flexibility. The findings show that, although our set of usually unobserved variables indeed has a significant effect on the selection into ALMP programs, the overall impact when estimating treatment effects is rather small. Finally, the thesis also examines the importance of gender differences in reservation wages that allows assessing the importance of special ALMP programs targeting women. In particular, when including reservation wages in a wage decomposition exercise, the gender gap in realized wages becomes small and statistically insignificant. The strong connection between gender differences in reservation wages and realized wages raises the question how these differences in reservation wages are set in the first place. Since traditional covariates cannot sufficiently explain the gender gap in reservation wages, we perform subgroup analysis to better understand what the driving forces behind this gender gap are. N2 - Anhaltend hohe Arbeitslosigkeit stellt eine der zentralen Herausforderungen für den sozialen Zusammenhalt moderner Gesellschaften dar. Aus diesem Grund wenden viele Industrienationen einen beachtlichen Teil ihrer Staatsausgaben zur Bekämpfung der Arbeitslosigkeit und den damit verbundenen Konsequenzen auf. Obwohl sich bereits eine Vielzahl ökonomischer Studien mit den Effekten traditioneller Maßnahmen der aktiven Arbeitsmarktpolitik (AAMP) auf den nachfolgenden Erfolg am Arbeitsmarkt beschäftigt, ist ein besseres Verständnis des Einflusses auf das Arbeitssuchverhalten und das daraus resultierende Zusammenspiel mit dem Erfolg am Arbeitsmarkt notwendig um die Gestaltung und Zuweisung dieser Maßnahmen zu optimieren. Darüber hinaus zeigen die Ergebnisse vorheriger Studien, dass viele traditionelle Maßnahmen nicht den gewünschten Erfolg erzielen. Dies unterstreicht die Notwendigkeit, zum einen die Wirkungsmechanismen aktiver Arbeitsmarktpolitik besser zu verstehen, und zum anderen innovative wirkungsvollere Maßnahmen zu entwickeln. Die vorliegende Dissertation liefert hierbei neue Erkenntnisse hinsichtlich verschiedener Faktoren. Zunächst wird der Einfluss subjektiver Erwartungen auf die Effektivität von Trainingsmaßnahmen untersucht. Diese Erwartungen betreffen die Wahrscheinlichkeit einer zukünftigen Programmteilnahme, sowie den erwarteten Einfluss auf den Erfolg am Arbeitsmarkt, und erlauben eine Verknüpfung von sogenannten Antizipationseffekten –einer Anpassung des Suchverhaltens vor einer tatsächlichen Teilnahme– mit dem traditionellen Vergleich von Teilnehmern und Nicht-Teilnehmern bezüglich ihres nachfolgendem Erfolgs am Arbeitsmarkt. Die empirische Analyse zeigt, dass Trainingsmaßnahmen einen positiveren Einfluss auf Teilnehmer haben, welche die Teilnahmewahrscheinlichkeit zu Beginn der Arbeitslosigkeit als hoch einstufen, verglichen mit Personen die diese Wahrscheinlichkeit als gering einschätzen. Im Gegensatz dazu besteht kein Zusammenhang zwischen den subjektiven Erwartungen bezüglich des Effekts der Maßnahme und dem tatsächlichen Arbeitsmarkterfolg von Teilnehmern. Es lässt sich feststellen, dass hohe Erwartungen bezüglich der Teilnahmewahrscheinlichkeit mit einer intensiveren Beratung durch die Arbeitsagentur und einer höheren Flexibilität der Suchstrategie verbunden sind. Die Ergebnisse zeigen, dass Arbeitsagenturen die Effektivität von spezifischen Arbeitsmarktprogrammen direkt beeinflussen können, in dem potentielle Teilnehmer umfangreich über bevorstehende Maßnahmen und die allgemeine Arbeitsmarktlage informiert werden. Ein weiterer Teil der Dissertation analysiert Maßnahmen zur Förderung regionaler Mobilität von Arbeitssuchenden. Im Speziellen, werden Reisekosten zu Jobinterviews, Fahrtkosten zum Arbeitsplatz oder Umzugskosten finanziell gefördert. Ziel dieser Maßnahmen ist es bestehende finanzielle Hindernisse zu beseitigen, welche die regionale Mobilität von Arbeitssuchenden einschränken. Die empirische Analyse zeigt, dass die Verfügbarkeit des Programms Arbeitssuchende dazu anhält sich auf Stellen zu bewerben welche einen Umzug erfordern und ihre Suchaktivitäten vom lokalen Arbeitsmarkt hinzu geografisch entfernten Regionen zu verlagern, ohne jedoch die Anzahl der Stellenbewerbungen insgesamt zu beeinflussen. Darüber hinaus führt der erweiterte Suchradius zu einer höheren Wiederbeschäftigungswahrscheinlichkeit und höheren Löhnen. Darauf aufbauend wird der Einfluss der tatsächlichen Nutzung einer spezifischen Mobilitätshilfe, der sogenannten Umzugskostenbeihilfe, auf den langfristigen Erfolg am Arbeitsmarkt untersucht. Es zeigt sich, dass Arbeitssuchende die zur Aufnahme einer neuen Beschäftigung umziehen und hierfür eine Unterstützung der Arbeitsagentur erhalten signifikant höhere Löhne beziehen und stabileren Beschäftigungsverhältnisse aufweisen. Des Weiteren wird die Relevanz von typischerweise nicht beobachtbaren Variablen bezüglich Persönlichkeitsmerkmalen, subjektiven Erwartungen, sozialen Netzwerken und generationenübergreifenden Informationen, im Kontext der Evaluierung typischer AAMP Programme, wie Trainingsmaßnahmen und Lohnkostenzuschüssen untersucht. Basierend auf einer Kombination von administrativen Daten und individuellen Befragungsdaten zeigt sich, dass diese Variablen einen signifikanten Einfluss auf die Teilnahmewahrscheinlichkeit haben, ihre Nichtberücksichtigung aber zu keiner Verzerrung der geschätzten Effekte führt. Abschließend wird die Rolle von Reservationslöhnen bei der Entwicklung von geschlechtsspezifischen Lohnunterschieden untersucht. Die empirische Analyse zeigt, dass der realisierte Lohnunterschied zwischen Männern und Frauen mit einem geschlechtsspezifischen Unterschied in Reservationslöhnen einhergeht. Dieser kann nicht durch Faktoren wie Bildung, unterschiedliche Erwerbsbiografien, sozio-demographische Eigenschaften und Persönlichkeitsmerkmale erklärt werden. Eine umfassende Subgruppenanalyse deutet an, dass, unterschiedliche Tätigkeitsvorlieben, der Erwartung von Diskriminierung gegenüber Frauen und unbeobachtbaren Produktivitätsunterschiede sowohl Unterschiede im Reservationslohn als auch im realisierten Lohn zwischen Männern und Frauen hervorrufen. KW - Labor market policies KW - Job search behavior KW - Microeconometrics KW - Geographical mobility KW - Subjective beliefs KW - treatment effects KW - Arbeitsmarktpolitik KW - Arbeitssuchverhalten KW - Mikroökonometrie KW - Regionale Mobilität KW - Subjektive Erwartungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397081 ER - TY - THES A1 - Martin, Thorsten T1 - Advances in spatial econometrics and the political economy of local housing supply T1 - Anwendungen in der Regionalökonometrie und die politische Ökonomie der lokalen Wohnraumversorgung BT - essays in regional and political economics BT - Aufsätze der Regionalökonomie und der politischen Ökonomie N2 - This cumulative dissertation consists of five chapters. In terms of research content, my thesis can be divided into two parts. Part one examines local interactions and spillover effects between small regional governments using spatial econometric methods. The second part focuses on patterns within municipalities and inspects which institutions of citizen participation, elections and local petitions, influence local housing policies. N2 - Diese kumulative Dissertation besteht aus fünf Kapiteln und kann inhaltlich zweigeteilt betrachtet werden. Im ersten Teil werden lokale Interaktionen und Übertragungseffekte zwischen kleinen regionalen Verwaltungseinheiten unter Verwendung von regionalökonometrischer Methoden untersucht. Der zweite Teil untersucht Zusammenhänge innerhalb von Gemeinden und untersucht welche Instrumentarien lokaler Politikbeteiligung, Kommunalwahlen und lokale Bürgerbegehren, einen Einfluss auf die örtliche Wohnungspolitik haben. KW - spatial econometrics KW - political economics KW - regional economics KW - public economics KW - Regionalökonometrie KW - politische Ökonomie KW - Regionalökonomie KW - Finanzwissenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406836 ER - TY - THES A1 - Mbaya Mani, Christian T1 - Functional nanoporous carbon-based materials derived from oxocarbon-metal coordination complexes T1 - Funktionale nanoporöse Kohlenstoffmaterialien auf Basis von Oxokohlenstoff-Metal Koordinationskomplexe N2 - Nanoporous carbon based materials are of particular interest for both science and industry due to their exceptional properties such as a large surface area, high pore volume, high electroconductivity as well as high chemical and thermal stability. Benefiting from these advantageous properties, nanoporous carbons proved to be useful in various energy and environment related applications including energy storage and conversion, catalysis, gas sorption and separation technologies. The synthesis of nanoporous carbons classically involves thermal carbonization of the carbon precursors (e.g. phenolic resins, polyacrylonitrile, poly(vinyl alcohol) etc.) followed by an activation step and/or it makes use of classical hard or soft templates to obtain well-defined porous structures. However, these synthesis strategies are complicated and costly; and make use of hazardous chemicals, hindering their application for large-scale production. Furthermore, control over the carbon materials properties is challenging owing to the relatively unpredictable processes at the high carbonization temperatures. In the present thesis, nanoporous carbon based materials are prepared by the direct heat treatment of crystalline precursor materials with pre-defined properties. This synthesis strategy does not require any additional carbon sources or classical hard- or soft templates. The highly stable and porous crystalline precursors are based on coordination compounds of the squarate and croconate ions with various divalent metal ions including Zn2+, Cu2+, Ni2+, and Co2+, respectively. Here, the structural properties of the crystals can be controlled by the choice of appropriate synthesis conditions such as the crystal aging temperature, the ligand/metal molar ratio, the metal ion, and the organic ligand system. In this context, the coordination of the squarate ions to Zn2+ yields porous 3D cube crystalline particles. The morphology of the cubes can be tuned from densely packed cubes with a smooth surface to cubes with intriguing micrometer-sized openings and voids which evolve on the centers of the low index faces as the crystal aging temperature is raised. By varying the molar ratio, the particle shape can be changed from truncated cubes to perfect cubes with right-angled edges. These crystalline precursors can be easily transformed into the respective carbon based materials by heat treatment at elevated temperatures in a nitrogen atmosphere followed by a facile washing step. The resulting carbons are obtained in good yields and possess a hierarchical pore structure with well-organized and interconnected micro-, meso- and macropores. Moreover, high surface areas and large pore volumes of up to 1957 m2 g-1 and 2.31 cm3 g-1 are achieved, respectively, whereby the macroscopic structure of the precursors is preserved throughout the whole synthesis procedure. Owing to these advantageous properties, the resulting carbon based materials represent promising supercapacitor electrode materials for energy storage applications. This is exemplarily demonstrated by employing the 3D hierarchical porous carbon cubes derived from squarate-zinc coordination compounds as electrode material showing a specific capacitance of 133 F g-1 in H2SO4 at a scan rate of 5 mV s-1 and retaining 67% of this specific capacitance when the scan rate is increased to 200 mV s-1. In a further application, the porous carbon cubes derived from squarate-zinc coordination compounds are used as high surface area support material and decorated with nickel nanoparticles via an incipient wetness impregnation. The resulting composite material combines a high surface area, a hierarchical pore structure with high functionality and well-accessible pores. Moreover, owing to their regular micro-cube shape, they allow for a good packing of a fixed-bed flow reactor along with high column efficiency and a minimized pressure drop throughout the packed reactor. Therefore, the composite is employed as heterogeneous catalyst in the selective hydrogenation of 5-hydroxymethylfurfural to 2,5-dimethylfuran showing good catalytic performance and overcoming the conventional problem of column blocking. Thinking about the rational design of 3D carbon geometries, the functions and properties of the resulting carbon-based materials can be further expanded by the rational introduction of heteroatoms (e.g. N, B, S, P, etc.) into the carbon structures in order to alter properties such as wettability, surface polarity as well as the electrochemical landscape. In this context, the use of crystalline materials based on oxocarbon-metal ion complexes can open a platform of highly functional materials for all processes that involve surface processes. N2 - Nanoporöse Kohlenstoffmaterialien zeichnen sich u. a. durch ihre außergewöhnlichen Eigenschaften aus wie z. B. hohe Oberfläche, hohes Porenvolumen, hohe elektrische Leitfähigkeit und auch hohe chemische und thermische Stabilität. Aufgrund dessen finden sie Anwendung in den unterschiedlichsten Bereichen von der Speicherung elektrischer Energie bis hin zur Katalyse und Gasspeicherung. Die klassische Synthese von porösen Kohlenstoffmaterialien basiert u. a. auf der Nutzung von sogenannten anorganischen bzw. organischen Templaten und/oder chemischen Aktivierungsagenzien. Allerdings gelten diese Methoden eher als kompliziert, kostspielig und umweltschädlich. Außerdem wird eine gezielte Kontrolle der Produkteigenschaften durch die zahlreichen Prozesse erschwert, die sich bei den hohen Karbonisierungstemperaturen abspielen und folglich die Materialeigenschaften unvorhersehbar verändern können. In der vorliegenden Arbeit wird ein alternatives Konzept für die Synthese von nanoporösen Kohlenstoffmaterialien mit gezielt einstellbaren Eigenschaften vorgestellt. Diese basiert auf der Nutzung von kristallinen Vorläufermaterialien, die aus der Koordination von den Anionen der Quadratsäure bzw. der Krokonsäure mit verschiedenen Metallionen (Zn2+, Cu2+, Ni2+ und Co2+) resultieren. Diese haben den Vorteil, dass Eigenschaften wie z. B. die Partikelmorphologie und Porosität gezielt durch die Wahl geeigneter Syntheseparameter (z. B. Temperatur, molares Verhältnis, Metallion und Ligand) eingestellt werden können. Beispielsweise führen Koordinationskomplexe von der Quadratsäure mit Zn2+ in Wasser zu porösen 3D würfelförmigen Mikrokristallen, die durch einfache thermische Behandlung unter Schutzgasatmosphäre zu den entsprechenden Kompositen umgewandelt werden. Ein anschließender Waschschritt führt zu den entsprechenden Kohlenstoffmaterialien unter Erhalt der makroskopischen Struktur der kristallinen Vorläufermaterialien. In diesem Zusammenhang weisen die resultierenden Kohlenstoffe ebenfalls eine 3D Würfelform mit einer hierarchischen Porenstruktur bestehend aus vernetzten Mikro-, Meso- und Makroporen auf. Ferner besitzen die Kohlenstoffe hohe Oberflächen und Porenvolumen von bis zu 1.957 m2 g-1 bzw. 2,31 cm3 g-1. Um die Vorteile dieser Eigenschaften zu demonstrieren, werden sie als Elektrodenmaterial für Superkondensatoren getestet und zeigen dabei vielversprechende Kapazitäten. Außerdem, werden sie auch als Trägermaterial für die Immobilisierung von Nickel-Nanopartikel verwendet und als heterogene Katalysatoren in der selektiven Hydrierung von 5-hydroxymethylfurfural zu 2,5-dimethylfuran in einem Festbettreaktor eingesetzt. Dabei wird eine gute Katalysatorleistung (Produktivität) bei minimalem Druckabfall in der Reaktorsäule erreicht. KW - squaric acid KW - Quadratsäure KW - mesocrystals KW - Mesokristalle KW - nanoporöser Kohlenstoffpartikel KW - nanoporous carbon particles KW - Nanopartikel KW - nanoparticles KW - Koordinationskomplexe KW - coordination complexes KW - oxocarbon KW - Oxo-Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407866 ER - TY - THES A1 - Meier, Sebastian T1 - Personal Big Data T1 - Personal Big Data BT - a privacy-centred selective cloud computing approach to progressive user modelling on mobile devices BT - ein mit dem Schwerpunkt auf Privatsphäre entwickelter selektiver Cloud-Computing Ansatz zur fortschreitenden Modellierung von Nutzerverhalten auf mobilen Endgeräten N2 - Many users of cloud-based services are concerned about questions of data privacy. At the same time, they want to benefit from smart data-driven services, which require insight into a person’s individual behaviour. The modus operandi of user modelling is that data is sent to a remote server where the model is constructed and merged with other users’ data. This thesis proposes selective cloud computing, an alternative approach, in which the user model is constructed on the client-side and only an abstracted generalised version of the model is shared with the remote services. In order to demonstrate the applicability of this approach, the thesis builds an exemplary client-side user modelling technique. As this thesis is carried out in the area of Geoinformatics and spatio-temporal data is particularly sensitive, the application domain for this experiment is the analysis and prediction of a user’s spatio-temporal behaviour. The user modelling technique is grounded in an innovative conceptual model, which builds upon spatial network theory combined with time-geography. The spatio-temporal constraints of time-geography are applied to the network structure in order to create individual spatio-temporal action spaces. This concept is translated into a novel algorithmic user modelling approach which is solely driven by the user’s own spatio-temporal trajectory data that is generated by the user’s smartphone. While modern smartphones offer a rich variety of sensory data, this thesis only makes use of spatio-temporal trajectory data, enriched by activity classification, as the input and foundation for the algorithmic model. The algorithmic model consists of three basal components: locations (vertices), trips (edges), and clusters (neighbourhoods). After preprocessing the incoming trajectory data in order to identify locations, user feedback is used to train an artificial neural network to learn temporal patterns for certain location types (e.g. work, home, bus stop, etc.). This Artificial Neural Network (ANN) is used to automatically detect future location types by their spatio-temporal patterns. The same is done in order to predict the duration of stay at a certain location. Experiments revealed that neural nets were the most successful statistical and machine learning tool to detect those patterns. The location type identification algorithm reached an accuracy of 87.69%, the duration prediction on binned data was less successful and deviated by an average of 0.69 bins. A challenge for the location type classification, as well as for the subsequent components, was the imbalance of trips and connections as well as the low accuracy of the trajectory data. The imbalance is grounded in the fact that most users exhibit strong habitual patterns (e.g. home > work), while other patterns are rather rare by comparison. The accuracy problem derives from the energy-saving location sampling mode, which creates less accurate results. Those locations are then used to build a network that represents the user’s spatio-temporal behaviour. An initial untrained ANN to predict movement on the network only reached 46% average accuracy. Only lowering the number of included edges, focusing on more common trips, increased the performance. In order to further improve the algorithm, the spatial trajectories were introduced into the predictions. To overcome the accuracy problem, trips between locations were clustered into so-called spatial corridors, which were intersected with the user’s current trajectory. The resulting intersected trips were ranked through a k-nearest-neighbour algorithm. This increased the performance to 56%. In a final step, a combination of a network and spatial clustering algorithm was built in order to create clusters, therein reducing the variety of possible trips. By only predicting the destination cluster instead of the exact location, it is possible to increase the performance to 75% including all classes. A final set of components shows in two exemplary ways how to deduce additional inferences from the underlying spatio-temporal data. The first example presents a novel concept for predicting the ‘potential memorisation index’ for a certain location. The index is based on a cognitive model which derives the index from the user’s activity data in that area. The second example embeds each location in its urban fabric and thereby enriches its cluster’s metadata by further describing the temporal-semantic activity in an area (e.g. going to restaurants at noon). The success of the client-side classification and prediction approach, despite the challenges of inaccurate and imbalanced data, supports the claimed benefits of the client-side modelling concept. Since modern data-driven services at some point do need to receive user data, the thesis’ computational model concludes with a concept for applying generalisation to semantic, temporal, and spatial data before sharing it with the remote service in order to comply with the overall goal to improve data privacy. In this context, the potentials of ensemble training (in regards to ANNs) are discussed in order to highlight the potential of only sharing the trained ANN instead of the raw input data. While the results of our evaluation support the assets of the proposed framework, there are two important downsides of our approach compared to server-side modelling. First, both of these server-side advantages are rooted in the server’s access to multiple users’ data. This allows a remote service to predict spatio-in the user-specific data, which represents the second downside. While minor classes will likely be minor classes in a bigger dataset as well, for each class, there will still be more variety than in the user-specific dataset. The author emphasises that the approach presented in this work holds the potential to change the privacy paradigm in modern data-driven services. Finding combinations of client- and server-side modelling could prove a promising new path for data-driven innovation. Beyond the technological perspective, throughout the thesis the author also offers a critical view on the data- and technology-driven development of this work. By introducing the client-side modelling with user-specific artificial neural networks, users generate their own algorithm. Those user-specific algorithms are influenced less by generalised biases or developers’ prejudices. Therefore, the user develops a more diverse and individual perspective through his or her user model. This concept picks up the idea of critical cartography, which questions the status quo of how space is perceived and represented. N2 - Die Nutzung von modernen digitalen Diensten und Cloud-Services geht häufig einher mit einer Besorgtheit um die Sicherheit der eigenen Privatsphäre. Gleichzeitig zeigt sich, dass die Nutzung eben dieser Dienste nicht rückläufig ist. Dieses Phänomen wird in der Wissenschaft auch als Privacy-Paradox bezeichnet (Barnes, 2006). Viele digitale Dienste bauen einen Großteil ihrer Funktionalitäten auf NutzerInnendaten auf. Der Modus Operandi bei diesen Diensten ist bisher, die Daten der NutzerInnen an einen Server zu schicken, wo diese verarbeitet, analysiert und gespeichert werden. Die vorliegende Doktorarbeit schlägt ein alternatives Konzept vor: Selective Cloud Computing. Kern dieses Konzeptes ist die Verlagerung der NutzerInnen-Modellierung auf die privaten Endgeräte, wodurch für weitere Services nur ein abstrahiertes Daten- und NutzerInnenmodel mit den externen Diensten geteilt wird. Um dieses Konzept auf seine Machbarkeit und Performanz zu überprüfen wird im Rahmen dieser Arbeit ein beispielhafter Prozess für die nutzerInnenseitige Modellierung von raumzeitlichen Informationen entwickelt. Da raumzeitliche Informationen mit zu den sensibelsten persönlichen Daten gehören, bietet die Verortung der vorliegende Arbeit im Bereich der Geoinformatik für das Anwendungsfeld der NutzerInnen-Modellierung einen passenden disziplinären Rahmen. Die NutzerInnen-Modellierung fußt auf einem innovativen konzeptuellen Modell, welches Theorien zu räumlichen Netzwerken und Hägerstrands Theorie der Zeitgeographie miteinander kombiniert (Hägerstrand, 1970). Hierbei werden die von Hägerstrand entwickelten raumzeitlichen Einschränkungen (Constraints) auf das Netzwerkmodel übertragen, wodurch individuelle Aktionsräume konstituiert werden. Dieses Model wird schließlich in ein algorithmisches Computermodel übersetzt, dessen Operationen ausschließlich die Daten verarbeiten und nutzen, die auf den Smartphones der NutzerInnen generiert werden. Moderne Smartphones bieten für die Datengenerierung gute Voraussetzungen, da sie den Zugriff auf eine ganze Bandbreite an Sensoren und anderen Datenquellen ermöglich. Die vorliegende Arbeit beschränkt sich dabei jedoch auf die raumzeitlichen Informationen, welche über die Ortungsfunktionen des Geräts produziert werden (Trajectories). Die Trajektorien werden angereichert durch Aktivitätsklassifikationen (z.B. Laufen, Radfahren, etc.), welche von der App, die diese Daten aufzeichnet, zugeordnet werden. Das Computermodel basiert auf diesen Daten und gliedert diese in drei grundlegende Komponenten: 1) Orte (Knotenpunkte) 2) Trips (Kanten) und 3) Cluster (Nachbarschaften). Zu Beginn der algorithmischen Verarbeitung werden die eingehenden Daten optimiert und analysiert, um in einem ersten Schritt geographische Orte zu identifizieren. Um diese Orte nun mit semantischen Informationen anzureichern wird ein automatisierter Algorithmus über User-Feedback trainiert, welcher die Orts-Typen selbstständig erkennt (z.B. Zuhause, Arbeitsplatz, Haltestelle). Der Algorithmus basiert auf einem künstlichen neuronalen Netz, welches versucht, Muster in den Daten zu erkennen. Die Entscheidung, neuronale Netze in diesem Prozess einzusetzen, ergab sich aus einer Evaluation verschiedener Verfahren der statistischen Klassifizierung und des maschinellen Lernens. Das Verfahren zur Erkennung der Orts-Typen erreichte unter Zuhilfenahme eines künstlichen neuronalen Netz eine Genauigkeit von 87.69% und war damit das akkurateste. Eine weitere Einsatzmöglichkeit solcher neuronalen Netze ist bei der Vorhersage von Aufenthaltsdauern an bestimmten Orten, welche im Durschnitt 0.69 Klassen vom korrekten Ergebnis abwich. Eine große Herausforderung für alle Module war sowohl die Ungenauigkeit der Rohdaten, also auch die ungleichmäßige Verteilung der Daten. Die Ungenauigkeit ist ein Resultat der Generierung der Positionsinformationen, welche zugunsten eines geringeren Energieverbrauchs der mobilen Geräte Ungenauigkeiten in Kauf nehmen muss. Die ungleichmäßige Verteilung ergibt sich wiederum durch häufig wiederkehrende Muster (z.B. Fahrten zur Arbeit und nach Hause), welche im Vergleich zu anderen Aktivitäten vergleichsweise häufig auftreten und die Datensätze dominieren. Die Orte, die in der ersten Phase identifiziert und klassifiziert wurden, werden im nächsten Schritt für die Konstruktion des eigentlichen räumlichen Netzwerks genutzt. Basierend auf den über einen bestimmten Zeitraum gesammelten Daten der NutzerInnen und im Rückgriff auf Hägerstrands Einschränkungsprinzip werden Vorhersagen über mögliche raumzeitliche Verhaltensweisen im nutzerspezifischen Netzwerk gemacht. Hierzu werden Methoden des maschinellen Lernens, in diesem Fall künstliche neuronale Netze und Nächste-Nachbarn-Klassifikation (k-nearest-neighbour), mit Methoden der Trajektorien-Analyse kombiniert. Die zugrundeliegenden Orts- und Bewegungsinformationen werden unter Anwendung von Netzwerk-Nachbarschafts-Methoden und klassischen räumlichen Gruppierungsmethoden (Clustering) für die Optimierung der Algorithmen verfeinert. Die aus diesen Schritten resultierende Methodik erreichte eine Genauigkeit von 75% bei der Vorhersage über raumzeitliches Verhalten. Wenn man Vorhersagen mit einbezieht, bei denen der korrekte Treffer auf Rang 2 und 3 der Nächste-Nachbarn-Klassifikation liegt, erreichte die Methodik sogar eine Vorhersagen-Genauigkeit von 90%. Um zu erproben, welche weiteren Schlussfolgerungen über die NutzerInnen basierend auf den zugrundeliegenden Daten getroffen werden könnten, werden abschließend zwei beispielhafte Methoden entwickelt und getestet: zum einen werden die Trajektorien genutzt um vorherzusagen, wie gut eine NutzerIn ein bestimmtes Gebiet kennt (Potential Memorisation Index). Zum anderen werden zeitlich-semantische Muster für Orts-Cluster extrahiert und darauf basierend berechnet, wann welche Aktivitäten und spezifischen Orte innerhalb eines Clusters für die NutzerIn potenziell von Interesse sind. Trotz der Herausforderungen, die mit den unausgeglichenen Datensätzen und teilweise fehlerhaften Daten einhergehen, spricht die dennoch vergleichsweise hohe Präzision der nutzerseitigen Klassifizierungs- und Vorhersagemethoden für den in dieser Arbeit vorgestellten Ansatz der nutzerseitigen Modellierung. In einem letzten Schritt kontextualisiert die vorliegende Arbeit die erstellten Ansätze in einem realweltlichen Anwendungsfall und diskutiert den Austausch der generierten Daten mit einem datengestützten Dienst. Hierzu wird das Konzept der Generalisierung genutzt, um im Sinne des Schutzes der Privatsphäre abstrahierte Daten mit einem Dienst zu teilen. Obgleich der positiven Ergebnisse der Tests gibt es auch klare Nachteile im Vergleich zur klassischen serverseitigen Modellierung, die unter Einbezug mehrerer aggregierter NutzerInnenprofile stattfindet. Hierzu zählt zum einen, dass unterrepräsentierte Klassen in den Daten schlechter identifiziert werden können. Zum anderen ergibt sich der Nachteil, dass nur Verhaltensweisen erkannt werden können, die bereits zuvor von der NutzerIn selber ausgeübt wurden und somit in den Daten bereits enthalten sind. Im Vergleich dazu besteht bei serverseitiger Modellierung auf der Basis zahlreicher Personenprofile der Zugriff auf ein breiteres Spektrum an Verhaltensmustern und somit die Möglichkeit, diese Muster mit dem der NutzerIn abzugleichen, ohne dass dieses Verhalten bereits in ihren nutzerseitig generierten Daten abgelegt ist. Nichtsdestotrotz zeigt die Arbeit, welches Potential die nutzerseitige Modellierung bereithält - nicht nur in Bezug auf den größeren Schutz der Privatsphäre der NutzerInnen, sondern ebenso in Hinsicht auf den Einsatz von Methoden des verteilten Rechnens (distributed computing). Die Kombination von beidem, nutzerInnen- und serverseitiger Modellierung, könnte ein neuer und vielversprechender Pfad für datengetriebene Innovation darstellen. Neben der technologischen Perspektive werden die entwickelten Methoden einer kritischen Analyse unterzogen. Durch das Einbringen der nutzerseitigen Modellierung in Form von benutzerspezifischen künstlichen neuronalen Netzen trainieren die NutzerInnen ihre eigenen Algorithmen auf ihren mobilen Geräten. Diese spezifischen Algorithmen sind weniger stark von generalisierten Vorannahmen, Vorurteilen und möglichen Befangenheiten der EntwicklerInnen beeinflusst. Hierdurch haben NutzerInnen die Möglichkeit, vielfältigere und persönlichere Perspektiven auf ihre Daten und ihr Verhalten zu generieren. Dieses Konzept setzt Ideen der kritischen Kartographie fort, in welcher der Status Quo der Wahrnehmung und Repräsentation des Raumes hinterfragt werden. KW - Personal Data KW - mobile KW - machine learning KW - privacy KW - spatio-temporal KW - recommendation KW - behaviour KW - persönliche Informationen KW - Mobil KW - Machine Learning KW - Privatsphäre KW - raum-zeitlich KW - Empfehlungen KW - Verhalten Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406696 ER - TY - THES A1 - Meier, Tobias T1 - Borehole Breakouts in Transversely Isotropic Posidonia Shale T1 - Bohrlochrandausbrüche in transversal isotropen Posidonienschiefer N2 - Borehole instabilities are frequently encountered when drilling through finely laminated, organic rich shales (Økland and Cook, 1998; Ottesen, 2010; etc.); such instabilities should be avoided to assure a successful exploitation and safe production of the contained unconventional hydrocarbons. Borehole instabilities, such as borehole breakouts or drilling induced tensile fractures, may lead to poor cementing of the borehole annulus, difficulties with recording and interpretation of geophysical logs, low directional control and in the worst case the loss of the well. If these problems are not recognized and expertly remedied, pollution of the groundwater or the emission of gases into the atmosphere can occur since the migration paths of the hydrocarbons in the subsurface are not yet fully understood (e.g., Davies et al., 2014; Zoback et al., 2010). In addition, it is often mentioned that the drilling problems encountered and the resulting downtimes of the wellbore system in finely laminated shales significantly increase drilling costs (Fjaer et al., 2008; Aadnoy and Ong, 2003). In order to understand and reduce the borehole instabilities during drilling in unconventional shales, we investigate stress-induced irregular extensions of the borehole diameter, which are also referred to as borehole breakouts. For this purpose, experiments with different borehole diameters, bedding plane angles and stress boundary conditions were performed on finely laminated Posidonia shales. The Lower Jurassic Posidonia shale is one of the most productive source rocks for conventional reservoirs in Europe and has the greatest potential for unconventional oil and gas in Europe (Littke et al., 2011). In this work, Posidonia shale specimens from the North (PN) and South (PS) German basins were selected and characterized petrophysically and mechanically. The composition of the two shales is dominated by calcite (47-56%) followed by clays (23-28%) and quartz (16-17%). The remaining components are mainly pyrite and organic matter. The porosity of the shales varies considerably and is up to 10% for PS and 1% for PN, which is due to a larger deposition depth of PN. Both shales show marked elasticity and strength anisotropy, which can be attributed to a macroscopic distribution and orientation of soft and hard minerals. Under load the hard minerals form a load-bearing, supporting structure, while the soft minerals compensate the deformation. Therefore, if loaded parallel to the bedding, the Posidonia shale is more brittle than loaded normal to the bedding. The resulting elastic anisotropy, which can be defined by the ratio of the modulus of elasticity parallel and normal to the bedding, is about 50%, while the strength anisotropy (i.e., the ratio of uniaxial compressive strength normal and parallel to the bedding) is up to 66%. Based on the petrophysical characterization of the two rocks, a transverse isotropy (TVI) was derived. In general, PS is softer and weaker than PN, which is due to the stronger compaction of the material due to the higher burial depth. Conventional triaxial borehole breakout experiments on specimens with different borehole diameters showed that, when the diameter of the borehole is increased, the stress required to initiate borehole breakout decreases to a constant value. This value can be expressed as the ratio of the tangential stress and the uniaxial compressive strength of the rock. The ratio increases exponentially with decreasing borehole diameter from about 2.5 for a 10 mm diameter hole to ~ 7 for a 1 mm borehole (increase of initiation stress by 280%) and can be described by a fracture mechanic based criterion. The reduction in borehole diameter is therefore a considerable aspect in reducing the risk of breakouts. New drilling techniques with significantly reduced borehole diameters, such as "fish-bone" holes, are already underway and are currently being tested (e.g., Xing et al., 2012). The observed strength anisotropy and the TVI material behavior are also reflected in the observed breakout processes at the borehole wall. Drill holes normal to the bedding develop breakouts in a plane of isotropy and are not affected by the strength or elasticity anisotropy. The observed breakouts are point-symmetric and form compressive shear failure planes, which can be predicted by a Mohr-Coulomb failure approach. If the shear failure planes intersect, conjugate breakouts can be described as "dog-eared” breakouts. While the initiation of breakouts for wells oriented normal to the stratification has been triggered by random local defects, reduced strengths parallel to bedding planes are the starting point for breakouts for wells parallel to the bedding. In the case of a deflected borehole trajectory, therefore, the observed failure type changes from shear-induced failure surfaces to buckling failure of individual layer packages. In addition, the breakout depths and widths increased, resulting in a stress-induced enlargement of the borehole cross-section and an increased output of rock material into the borehole. With the transition from shear to buckling failure and changing bedding plane angle with respect to the borehole axis, the stress required for inducing wellbore breakouts drops by 65%. These observations under conventional triaxial stress boundary conditions could also be confirmed under true triaxial stress conditions. Here breakouts grew into the rock as a result of buckling failure, too. In this process, the broken layer packs rotate into the pressure-free drill hole and detach themselves from the surrounding rock by tensile cracking. The final breakout shape in Posidonia shale can be described as trapezoidal when the bedding planes are parallel to the greatest horizontal stress and to the borehole axis. In the event that the largest horizontal stress is normal to the stratification, breakouts were formed entirely by shear fractures between the stratification and required higher stresses to initiate similar to breakouts in conventional triaxial experiments with boreholes oriented normal to the bedding. In the content of this work, a fracture mechanics-based failure criterion for conventional triaxial loading conditions in isotropic rocks (Dresen et al., 2010) has been successfully extended to true triaxial loading conditions in the transverse isotropic rock to predict the initiation of borehole breakouts. The criterion was successfully verified on the experiments carried out. The extended failure criterion and the conclusions from the laboratory and numerical work may help to reduce the risk of borehole breakouts in unconventional shales. N2 - Bei Bohrungen in feinlaminierten, organikreichen Schiefern werden häufig Bohrlochinstabilitäten beobachtet (Økland und Cook, 1998; Ottesen, 2010 und weitere), welche für eine sichere und erfolgreiche Erschließung der darin gespeicherten unkonventionellen Kohlenwasserstoffe vermieden werden sollten. Bohrlochinstabilitäten, wie zum Beispiel Bohrlochrandausbrüche oder bohrungsbedingte Zugrisse, führen unter Umständen zu einer schlechten bzw. unzureichenden Zementierung des Ringraum, zu Schwierigkeiten bei der Aufnahme und späteren Interpretation bohrlochgeophysikalischer Messungen sowie zu einer verringerten Kontrolle über die Auslenkung der Bohrung und im schlimmsten Fall zum Verlust der Bohrung. Werden diese Probleme nicht erkannt und fachmännisch behoben, kann es zur Verschmutzung des Grundwassers oder zum Austritt von Gasen in die Atmosphäre kommen, da die Migrationspfade der Kohlenwasserstoffe im Untergrund noch nicht vollständig verstanden sind (z.B. Davies et al., 2014; Zoback et al., 2010). Darüber hinaus wird häufig erwähnt, dass die angetroffenen Bohrprobleme und die daraus entstehenden Ausfallzeiten der Bohrlochanlage in feinlaminierten Schiefern die Bohrkosten erheblich erhöhen (Fjaer et al., 2008; Aadnoy und Ong, 2003). Um die Bohrlochinstabilitäten während des Bohrens in unkonventionellen Speichergesteinen zu verstehen und zu reduzieren, untersuchen wir in dieser Arbeit spannungsbedingte unregelmäßige Erweiterungen des Bohrlochdurchmessers, die auch als Bohrlochrandausbrüche (borehole breakouts) bezeichnet werden. Dazu wurden Versuche mit unterschiedlichen Bohrlochdurchmessern, Schichteinfallswinkeln und Belastungsrandbedingungen an feinlaminierten Posidonienschiefern durchgeführt. Der aus dem Unteren Jura stammende Posidonienschiefer ist eines der produktivsten Muttergesteine für konventionelle Lagerstätten in Europa und besitzt zeitgleich das größte Potential für unkonventionelles Öl und Gas in Europa (Littke et al., 2011). Im Rahmen dieser Arbeit wurden Posidonienschieferproben aus dem Norddeutschen (PN) und Süddeutschen (PS) Becken ausgewählt und petrophysikalisch sowie mechanisch charakterisiert. Die Zusammensetzung der beiden Schiefer wird dominiert von Kalzit (47-56%) gefolgt von Tonen (23-28%) und Quarz (16-17%). Die verbleibenden Komponenten sind hauptsächlich Pyrit und organische Substanz. Die Porosität des Schiefers schwankt beträchtlich und beträgt bis zu 10% für PS und 1% für PN, was auf eine größere Versenkungstiefe von PN zurückzuführen ist. Beide Schiefer zeigen ausgeprägte Elastizitäts- und Festigkeitsanisotropie, welche einer makroskopischen Verteilung und Orientierung von weichen und harten Mineralen zugeschrieben werden kann. Unter Belastung bilden die harten Minerale eine tragende Struktur, während die weichen Minerale die Verformung kompensieren. Daher verhält sich der Posidonienschiefer bei Belastung parallel zur Schichtfläche spröder als bei einer Belastung normal zur Schichtfläche. Die resultierende elastische Anisotropie, die über das Verhältnis des Elastizitätsmoduls parallel und normal zu Schichtung definiert werden kann, beträgt circa 50%, während die Festigkeitsanisotropie (d.h. das Verhältnis der uniaxialen Druckfestigkeit normal und parallel zur Schichtung) bis zu 66% beträgt. Basierend auf der petrophysikalischen Charakterisierung der beiden Gesteine konnte eine transversale Isotropie (TVI) abgeleitet werden. Im Allgemeinen ist PS weicher und schwächer als PN, was auf der stärkeren Verdichtung des Materials aufgrund der höheren Versenkungstiefe beruht. Konventionelle triaxiale Experimente zur Entstehung von Bohrlochrandausbrüchen an Proben mit unterschiedlichen Bohrlochdurchmessern zeigten, dass bei Vergrößerung des Bohrlochdurchmessers die zum Auslösen des Randausbruches erforderliche Spannung gegen einen konstanten Wert absinkt. Dieser kann als Verhältnis der Tangentialspannung und der einachsialen Druckfestigkeit des Gesteins ausgedrückt werden. Das Verhältnis erhöht sich exponentiell mit kleiner werdendem Bohrlochdurchmesser von circa 2,5 für ein 10 mm großes Bohrloch auf ~7 für ein 1 mm großes Bohrloch (Zunahme der Initiierungsspannung um 280%) und kann durch ein bruchmechanisch basiertes Kriterium beschrieben werden. Die Verringerung des Bohrlochdurchmessers stellt daher einen beträchtlichen Aspekt bei der Verringerung des Risikos für Bohrlochausbrüche dar. Neue Bohrtechniken mit deutlich reduzierten Bohrlochdurchmessern wie zum Beispiel „fish-bone“ Bohrungen nehmen dieses Konzept bereits auf und werden derzeit getestet (z. B. Xing et al., 2012). Die beobachtete Festigkeitsanisotropie und das TVI Materialverhalten spiegeln sich auch in den beobachteten Ausbruchsprozessen am Bohrlochrand wider. Bohrlöcher normal zur Schichtung entwickeln Randausbrüche in einer Ebene der Isotropie und werden nicht durch die Festigkeitsoder Elastizitätsanisotropie beeinflusst. Die beobachteten Ausbrüche sind punktsymmetrisch und bilden kompressive Schubversagensebenen, die durch einen Mohr-Coulomb-Versagensansatz vorhergesagt werden können. Falls sich die Schubversagensebenen schneiden, bilden sich konjugierte Ausbrüche die als „hundeohrförmig“ (dog-eared breakout) beschrieben werden können. Während die Initiierung von Randausbrüchen für Bohrlöcher normal zur Schichtung durch zufällige lokale Defekte ausgelöst wurde, sind reduzierte Festigkeiten parallel zur Schichtung der Ausgangspunkt für Bohrlochrandausbrüche für Bohrlöcher parallel zur Schichtung. Im Falle einer abgelenkten Bohrlochtrajektorie ändert sich daher der beobachtete Versagenstyp von schubdominiertem Versagensflächen zu Knickversagen einzelner Schichtpakete. Darüber hinaus nahmen die Ausbruchtiefen und -breiten zu, was zu einer spannungsbedingten Vergrößerung des Bohrlochquerschnitts und einem vermehrten Ausstoß von Gesteinsmaterial in das Bohrloch führte. Zeitgleich sinkt beim Übergang von Schub- zu Knickversagen und sich ändernden Schichteinfallswinkel, die für das Induzieren von Bohrlochrandausbrüchen notwendige Spannung um 65%, deutlich ab. Diese Beobachtungen unter konventionellen triaxialen Belastungsrandbedingungen konnten auch unter echt-triaxialen Belastungsrandbedingungen bestätigt werden. Hier wuchsen die Randausbrüche ebenfalls normal zur Schichtfläche durch Knickfehler in das Gestein. Dabei rotierten die gebrochenen Schichtpakete in das druckfreie Bohrloch und lösten sich vom umgebenden Gestein durch Zugrisse ab. Die endgültige Ausbruchform im Posidonienschiefer kann als trapezförmig beschrieben werden, wenn die Schichtfläche parallel zur größten horizontalen Spannung liegt. In dem Fall, dass die größte horizontale Spannung normal zur Schichtung orientiert ist, wurden Ausbrüche vollständig durch Scherbrüche zwischen den Schichtflächen gebildet und benötigten höhere Spannungen zur Initiierung. Im Rahmen dieser Arbeit wurde ein bruchmechanisch-basiertes Versagenskriterium für konventionelle triaxiale Belastungsbedingungen in isotropen Gesteinen (Dresen et al., 2010) erfolgreich auf echte triaxiale Belastungsbedingungen im transversal isotropen Gestein erweitert, um die Initiierung von Bohrlochrandausbrüchen vorherzusagen. Das Kriterium konnte erfolgreich an den durchgeführten Versuchen verifiziert werden. Das erweiterte Versagenskriterium und die Schlussfolgerungen aus dem Labor und der numerischen Arbeit helfen, das Risiko von Bohrlochausbrüchen in unkonventionellen Schiefern zu reduzieren. KW - borehole breakouts KW - unconventional shale KW - Posidonia shale KW - hollow cylinder experiments KW - shale strength KW - Bohrlochrandausbrüche KW - unkonventionelle Schiefer KW - Posidonienschiefer KW - Hohlzylinderversuche KW - Festigkeit des Schiefer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400019 ER - TY - THES A1 - Meiling, Till Thomas T1 - Development of a reliable and environmentally friendly synthesis for fluorescence carbon nanodots T1 - Entwicklung einer zuverlässigen und umweltfreundlichen Synthese für fluoreszierende Kohlenstoff-Nanopunkte BT - preparation and characterisation of excellent and well-defined carbon nanodots by a fast, simple and cost-efficient synthesis method; with special focus on future exploration and large scale applications BT - Herstellung und Charakterisierung von hochwertigen und klar definierten Kohlenstoff-Nanopunkten mit Hilfe einer schnellen, einfachen, und kosteneffizienten Synthesemethode; mit speziellem Fokus auf ihre zukünftige Erforschung und breite Anwendung N2 - Carbon nanodots (CNDs) have generated considerable attention due to their promising properties, e.g. high water solubility, chemical inertness, resistance to photobleaching, high biocompatibility and ease of functionalization. These properties render them ideal for a wide range of functions, e.g. electrochemical applications, waste water treatment, (photo)catalysis, bio-imaging and bio-technology, as well as chemical sensing, and optoelectronic devices like LEDs. In particular, the ability to prepare CNDs from a wide range of accessible organic materials makes them a potential alternative for conventional organic dyes and semiconductor quantum dots (QDs) in various applications. However, current synthesis methods are typically expensive and depend on complex and time-consuming processes or severe synthesis conditions and toxic chemicals. One way to reduce overall preparation costs is the use of biological waste as starting material. Hence, natural carbon sources such as pomelo peal, egg white and egg yolk, orange juice, and even eggshells, to name a few; have been used for the preparation of CNDs. While the use of waste is desirable, especially to avoid competition with essential food production, most starting-materials lack the essential purity and structural homogeneity to obtain homogeneous carbon dots. Furthermore, most synthesis approaches reported to date require extensive purification steps and have resulted in carbon dots with heterogeneous photoluminescent properties and indefinite composition. For this reason, among others, the relationship between CND structure (e.g. size, edge shape, functional groups and overall composition) and photophysical properties is yet not fully understood. This is particularly true for carbon dots displaying selective luminescence (one of their most intriguing properties), i.e. their PL emission wavelength can be tuned by varying the excitation wavelength. In this work, a new reliable, economic, and environmentally-friendly one-step synthesis is established to obtain CNDs with well-defined and reproducible photoluminescence (PL) properties via the microwave-assisted hydrothermal treatment of starch, carboxylic acids and Tris-EDTA (TE) buffer as carbon- and nitrogen source, respectively. The presented microwave-assisted hydrothermal precursor carbonization (MW-hPC) is characterized by its cost-efficiency, simplicity, short reaction times, low environmental footprint, and high yields of approx. 80% (w/w). Furthermore, only a single synthesis step is necessary to obtain homogeneous water-soluble CNDs with no need for further purification. Depending on starting materials and reaction conditions different types of CNDs have been prepared. The as-prepared CNDs exhibit reproducible, highly homogeneous and favourable PL properties with narrow emission bands (approx. 70nm FWHM), are non-blinking, and are ready to use without need for further purification, modification or surface passivation agents. Furthermore, the CNDs are comparatively small (approx. 2.0nm to 2.4nm) with narrow size distributions; are stable over a long period of time (at least one year), either in solution or as a dried solid; and maintain their PL properties when re-dispersed in solution. Depending on CND type, the PL quantum yield (PLQY) can be adjusted from as low as 1% to as high as 90%; one of the highest reported PLQY values (for CNDs) so far. An essential part of this work was the utilization of a microwave synthesis reactor, allowing various batch sizes and precise control over reaction temperature and -time, pressure, and heating- and cooling rate, while also being safe to operate at elevated reaction conditions (e.g. 230 ±C and 30 bar). The hereby-achieved high sample throughput allowed, for the first time, the thorough investigation of a wide range of synthesis parameters, providing valuable insight into the CND formation. The influence of carbon- and nitrogen source, precursor concentration and -combination, reaction time and -temperature, batch size, and post-synthesis purification steps were carefully investigated regarding their influence on the optical properties of as-synthesized CNDs. In addition, the change in photophysical properties resulting from the conversion of CND solution into solid and back into the solution was investigated. Remarkably, upon freeze-drying the initial brown CND-solution turns into a non-fluorescent white/slightly yellow to brown solid which recovers PL in aqueous solution. Selected CND samples were also subject to EDX, FTIR, NMR, PL lifetime (TCSPC), particle size (TEM), TGA and XRD analysis. Besides structural characterization, the pH- and excitation dependent PL characteristics (i.e. selective luminescence) were examined; giving inside into the origin of photophysical properties and excitation dependent behaviour of CNDs. The obtained results support the notion that for CNDs the nature of the surface states determines the PL properties and that excitation dependent behaviour is caused by the “Giant Red-Edge Excitation Shift” (GREES). N2 - Kohlenstoff-Nanopunkte (CNDs, engl. carbon nanodots) haben im letzten Jahrzehnt insbesondere durch ihre vielversprechenden Eigenschaften immer mehr an Popularität gewonnen. CNDs zeichnen sich insbesondere durch ihre Wasserlöslichkeit, hohe chemische Stabilität, Biokompatibilität, hohe Resistenz gegen Photobleichen, und die Möglichkeit zur Oberflächenfunktionalisierung aus. Diese Eigenschaften machen sie somit ideal für eine breite Palette von Anwendungen: z.B. Abwasserbehandlung, (Foto-) Katalyse, Bioimaging und Biotechnologie, chemische Sensorik, sowie elektrochemische- und optoelektronische Anwendungen (z.B. LEDs). Insbesondere die Möglichkeit, CNDs aus einer Vielzahl organischer Materialien herzustellen, machen sie zu einer möglichen Alternative für herkömmliche organische Farbstoffe und Halbleiter-Quantenpunkte (QDs). Derzeitigen Synthesestrategien erweisen sich jedoch häufig als teuer, komplex und zeitaufwändig; bzw. benötigen toxischen Chemikalien und/oder drastische Reaktionsbedingungen. Eine Möglichkeit, die Herstellungskosten von CNDs zu reduzieren, ist die Verwendung von biologischem Abfall als Ausgangsmaterial. So wurden bereits eine Vielzahl an natürlichen Kohlenstoffquellen, z.B. Pomelo-Schale, Eiweiß und Eigelb, Orangensaft und sogar Eierschalen, für die Darstellung von CNDs verwendet. Während die Verwendung von biologischem Abfall wünschenswert ist, insbesondere um Wettbewerb mit der Nahrungsmittelproduktion zu vermeiden, fehlt den meisten Ausgangsmaterialien jedoch die notwendige Reinheit und strukturelle Homogenität um einheitliche CNDs zu erhalten. So führen bisherige Syntheseansätze oft zu CNDs mit heterogenen photophysikalischen Eigenschaften und unbestimmter Zusammensetzung. Für die Untersuchung des Zusammenhangs zwischen CND Struktur und photophysikalischen Eigenschaften werden aber möglichst homogene und vergleichbare Proben benötigt. In dieser Arbeit wird daher eine neue, zuverlässige, ökonomische und umweltfreundliche Einstufen-Synthese zur Darstellung von CNDs mit klar definierten und reproduzierbaren Photolumineszenz- (PL) -Eigenschaften vorgestellt. Die vorgestellte Methode basiert auf der mikrowellenunterstützten, hydrothermischen Behandlung (MW-hPC, engl. microwaveassisted hydrothermal precursor carbonization) wässriger Lösungen aus Stärke, Carbonsäuren (als Kohlenstoffquelle) und Tris-EDTA (TE) -Puffer (als Stickstoffquelle). Die MW-hPC zeichnet sich insbesondere durch die hohe Reproduzierbarkeit, einfache Handhabung, geringen Reaktionszeiten, geringe Umweltbelastung, Kosteneffizienz und die hohen Ausbeuten von ca. 80% (w/w) aus. Darüber hinaus wird nur ein einziger Syntheseschritt (ohne weitere Aufreinigung) benötigt um homogene, wasserlösliche CNDs zu erhalten. In Abhängig der gewählten Ausgangsmaterialen und Reaktionsbedingungen können verschiedene Typen an CNDs gewonnen werden. Die so gewonnen CNDs sind verhältnismäßig klein (ca. 2.0nm- 2.4nm); besitzen eine geringe Größenverteilung, hochgradig homogenen PL-Eigenschaften, und geringen Halbwertsbreiten (FWHM) von ca. 70nm. Darüber hinaus erwiesen sie sich als nicht blinkend; sind langzeitstabil (min. ein Jahr) sowohl in Lösung als auch als Feststoff; und sind direkt gebrauchsfertig, d.h. benötigen keine weitere Aufreinigung oder Oberflächenpassivierung. In Abhängigkeit vom CND-Typ kann die PL-Quantenausbeute zwischen 1% bis 90% betragen; einer der höchsten Werte der je (für CNDs) erreicht wurde. Ein wesentlicher Bestandteil dieser Arbeit war die Verwendung eines Mikrowellensynthese- Reaktors (MiWR) und die damit einhergehende präzise Kontrolle über die Reaktionstemperatur und -zeit, den Druck, und die Heiz- und Abkühlgeschwindigkeit. Des Weiteren ermöglichte der MiWR unterschiedliche Ansatzgrößen und das sichere Arbeiten bei erhöhten Reaktionsbedingungen (z.B. 230 ±C und 30 bar). Der hierdurch erreichte hohe Probendurchsatz ermöglichte somit erstmals die sorgfältige Untersuchung einer Vielzahl an Syntheseparametern hinsichtlich ihres Einflusses auf die photophysikalischen Eigenschaften der dargestellten CNDs. Die untersuchten Parameter reichen hierbei von der Reaktionstemperatur und -zeit über die Edukt-Konzentration und -Kombination (Kohlenstoff- und Stickstoffquelle) bis hin zur Ansatzgröße. Bemerkenswerterweise, und unabhängig vom CND-Typ, transformieren die ursprünglich braunen CND-Lösungen während der Trocknung zu einem nicht fluoreszierenden, weißen/leicht gelblich bis bräunlichen Feststoff; und regenerieren ihre photophysikalischen Eigenschaften verlustfrei in wässriger Lösung. Im Rahmen dieser Arbeit wurden ausgewählte CND-Proben der EDX-, FTIR-, NMR-, TCSPC-, Partikelgrößen (TEM)-, TGA- und XRD-Analyse unterzogen. Die hierbei gewonnenen Erkenntnisse stützen die Theorie, dass die photophysikalischen Eigenschaften der CNDs durch ihre Oberflächenzustände bestimmt werden und dass die s.g. ”Riesen-Rotkanten-Anregungsverschiebung” (GREES, engl. Giant Red Edge Excitation Shift) eine mögliche Ursache für die häufig beobachtete Anregungswellenlängenabhängigkeit der Emissionswellenlänge (bzw. selektive Lumineszenz) in CNDs ist. KW - carbon dots KW - carbon nanodots KW - fluorescence KW - high quantum yield KW - microwave synthesis KW - white carbon KW - Kohlenstoff-Punkte KW - Kohlenstoff-Nanopunkte KW - Fluoreszenz KW - hohe Quantenausbeute KW - mikrowellengestützte Synthese KW - weißer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410160 ER - TY - THES A1 - Meiser, Susanne T1 - Wie dysfunktional sind Dysfunktionale Einstellungen? T1 - How dysfunctional are dysfunctional attitudes? BT - dysfunktionale Kognitionen und Depression im Kindes- und Jugendalter BT - dysfunctional cognitions and depression in children and adolescents N2 - Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik. Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse. Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen. Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten. N2 - In A. T. Beck´s prominent vulnerability-stress-model of depression (Beck 1967, 1976), dysfunctional attitudes represent the key vulnerability factor of depression. This theory has stimulated etiological research on depression for decades. However, the significance of dysfunctional attitudes for the emergence of depression in children and adolescents remains somewhat elusive. This dissertation addresses some questions unanswered by past studies, e.g. the possibility of nonlinear effects of dysfunctional attitudes, the impact of subject selection procedures, developmental effects and the specificity of dysfunctional attitudes for depressive symptomatology. These questions were examined using data from two measurement points of the PIER study, a large longitudinal project on developmental risks in childhood and adolescence. Children and adolescents aged 9 – 18 years reported dysfunctional attitudes, symptoms from various domains and stressful life events twice with a mean interval between assessments of 20 months. Results suggest a threshold model of cognitive vulnerability, in which only dysfunctional attitudes exceeding a certain threshold conferred vulnerability to depressive symptoms, while dysfunctional attitudes below the threshold were unrelated to future depressive symptoms. These effects were invariant across gender and age. Moreover, vulnerability effects of dysfunctional attitudes were observable in initially non-symptomatic participants only. The threshold model of dysfunctional attitudes turned out to be specific for the depressive symptom domain. However, relationships of different shapes were detected between dysfunctional attitudes and the development of aggressive and eating disorder symptoms. Moreover, dysfunctional attitudes in 9 – 13-year old boys predicted non-interpersonal stress generation. Along with evidence from the PIER study reported by Sahyazici-Knaak (2015), results suggest that dysfunctional attitudes in children and adolescents may represent a cause, symptom and consequence of depression, depending on the sub-population in question. The nonlinear effects of dysfunctional attitudes detected in this study might, at least in part, offer an explanation for the inconsistent results of past studies. In sum, findings of this dissertation suggest complex – and not exclusively negative - effects of dysfunctional attitudes. Thus, a judgement of the actual “dysfunctionality” of the “dysfunctional attitudes” proposed by A. T. Beck seems to require a close consideration of the absolute level of attitudes as well as the sub-population and symptom domains in question. KW - Depression KW - Ätiologie KW - Kognition KW - dysfunktionale Einstellungen KW - Kinder KW - Jugendliche KW - kognitive Vulnerabilität KW - depression KW - etiology KW - cognition KW - dysfunctional attitudes KW - children KW - adolescents KW - cognitive vulnerability Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412483 ER - TY - THES A1 - Mera, Azal Jaafar Musa T1 - The Navier-Stokes equations for elliptic quasicomplexes T1 - Die Navier–Stokes–Gleichungen für elliptische Quasikomplexe N2 - The classical Navier-Stokes equations of hydrodynamics are usually written in terms of vector analysis. More promising is the formulation of these equations in the language of differential forms of degree one. In this way the study of Navier-Stokes equations includes the analysis of the de Rham complex. In particular, the Hodge theory for the de Rham complex enables one to eliminate the pressure from the equations. The Navier-Stokes equations constitute a parabolic system with a nonlinear term which makes sense only for one-forms. A simpler model of dynamics of incompressible viscous fluid is given by Burgers' equation. This work is aimed at the study of invariant structure of the Navier-Stokes equations which is closely related to the algebraic structure of the de Rham complex at step 1. To this end we introduce Navier-Stokes equations related to any elliptic quasicomplex of first order differential operators. These equations are quite similar to the classical Navier-Stokes equations including generalised velocity and pressure vectors. Elimination of the pressure from the generalised Navier-Stokes equations gives a good motivation for the study of the Neumann problem after Spencer for elliptic quasicomplexes. Such a study is also included in the work.We start this work by discussion of Lamé equations within the context of elliptic quasicomplexes on compact manifolds with boundary. The non-stationary Lamé equations form a hyperbolic system. However, the study of the first mixed problem for them gives a good experience to attack the linearised Navier-Stokes equations. On this base we describe a class of non-linear perturbations of the Navier-Stokes equations, for which the solvability results still hold. N2 - Die klassischen Navier–Stokes–Differentialgleichungen der Hydrodynamik werden in der Regel im Rahmen der Vektoranalysis formuliert. Mehr versprechend ist die Formulierung dieser Gleichungen in Termen von Differentialformen vom Grad 1. Auf diesem Weg beinhaltet die Untersuchung der Navier–Stokes–Gleichungen die Analyse des de Rhamschen Komplexes. Insbesondere ermöglicht die Hodge–Theorie für den de Rham–Komplex den Druck aus den Gleichungen zu eliminieren. Die Navier–Stokes–Gleichungen bilden ein parabolisches System mit einem nichtlinearen Term, welcher Sinn nur für die Pfaffschen Formen (d.h Formen vom Grad 1) hat. Ein einfacheres Modell für Dynamik der inkompressiblen viskosen Flüssigkeit wird von der Burgers–Gleichungen gegeben. Diese Arbeit richtet sich an das Studium der invarianten Struktur der Navier–Stokes–Gleichungen, die eng mit der algebraischen Struktur des de Rham–Komplexes im schritt 1 zusammen steht. Zu diesem Zweck stellen wir vor die Navier–Stokes–Gleichungen im Zusammenhang mit jedem elliptischen Quasikomplex von Differentialoperatoren der ersten Ordnung. So ähneln die Gleichungen den klassischen Navier–Stokes–Gleichungen, einschließlich allgemeiner Geschwindigkeit– und Druckvektoren. Elimination des Drucks aus den verallgemeinerten Navier–Stokes–Gleichungen gibt eine gute Motivation für die Untersuchung des Neumann–Problems nach Spencer für elliptische Quasikomplexe. Eine solche Untersuchung ist auch in der Arbeit mit der Erörterung der Lamé-Gleichungen im Kontext der elliptischen Quasikomplexe auf kompakten Mannigfaltigkeiten mit Rand. Die nichtstationären Lamé-Gleichungen bilden ein hyperbolisches System. Allerdings gibt die Studie des ersten gemischten Problems für sie eine gute Erfahrung, um die linearisierten Navier–Stokes–Gleichungen anzugreifen. Auf dieser Basis beschreiben wir eine Klasse von nichtlinearen Störungen der Navier–Stokes–Gleichungen, für welche die Lösungsresultate noch gelten. KW - Navier-Stokes-Gleichungen KW - elliptische Quasi-Komplexe KW - Navier-Stoks equations KW - elliptic quasicomplexes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398495 ER - TY - THES A1 - Mitzkus, Martin T1 - Spectroscopic surface brightness fluctuations T1 - Spektroskopische Flächenhelligkeitsfluktuationen BT - probing bright evolved stars in unresolved stellar populations BT - Untersuchung von hellen, entwickelten Sternen in unaufgelösten stellaren Populationen N2 - Galaxies evolve on cosmological timescales and to study this evolution we can either study the stellar populations, tracing the star formation and chemical enrichment, or the dynamics, tracing interactions and mergers of galaxies as well as accretion. In the last decades this field has become one of the most active research areas in modern astrophysics and especially the use of integral field spectrographs furthered our understanding. This work is based on data of NGC 5102 obtained with the panoramic integral field spectrograph MUSE. The data are analysed with two separate and complementary approaches: In the first part, standard methods are used to measure the kinematics and than model the gravitational potential using these exceptionally high-quality data. In the second part I develop the new method of surface brightness fluctuation spectroscopy and quantitatively explore its potential to investigate the bright evolved stellar population. Measuring the kinematics of NGC 5102 I discover that this low-luminosity S0 galaxy hosts two counter rotating discs. The more central stellar component co-rotates with the large amount of HI gas. Investigating the populations I find strong central age and metallicity gradients with a younger and more metal rich central population. The spectral resolution of MUSE does not allow to connect these population gradients with the two counter rotating discs. The kinematic measurements are modelled with Jeans anisotropic models to infer the gravitational potential of NGC 5102. Under the self-consistent mass-follows-light assumption none of the Jeans models is able to reproduce the observed kinematics. To my knowledge this is the strongest evidence evidence for a dark matter dominated system obtained with this approach so far. Including a Navarro, Frenk & White dark matter halo immediately solves the discrepancies. A very robust result is the logarithmic slope of the total matter density. For this low-mass galaxy I find a value of -1.75 +- 0.04, shallower than an isothermal halo and even shallower than published values for more massive galaxies. This confirms a tentative relation between total mass slope and stellar mass of galaxies. The Surface Brightness Fluctuation (SBF) method is a well established distance measure, but due to its sensitive to bright stars also used to study evolved stars in unresolved stellar populations. The wide-field spectrograph MUSE offers the possibility to apply this technique for the first time to spectroscopic data. In this thesis I develop the spectroscopic SBF technique and measure the first SBF spectrum of any galaxy. I discuss the challenges for measuring SBF spectra that rise due to the complexity of integral field spectrographs compared to imaging instruments. Since decades, stellar population models indicate that SBFs in intermediate-to-old stellar systems are dominated by red giant branch and asymptotic giant branch stars. Especially the later carry significant model uncertainties, making these stars a scientifically interesting target. Comparing the NGC 5102 SBF spectrum with stellar spectra I show for the first time that M-type giants cause the fluctuations. Stellar evolution models suggest that also carbon rich thermally pulsating asymptotic giant branch stars should leave a detectable signal in the SBF spectrum. I cannot detect a significant contribution from these stars in the NGC 5102 SBF spectrum. I have written a stellar population synthesis tool that predicts for the first time SBF spectra. I compute two sets of population models: based on observed and on theoretical stellar spectra. In comparing the two models I find that the models based on observed spectra predict weaker molecular features. The comparison with the NGC 5102 spectrum reveals that these models are in better agreement with the data. N2 - Galaxien entwickeln sich auf kosmischen Zeitskalen. Um diese Entwicklung zu untersuchen und zu verstehen benutzen wir zwei verschiedene Methoden: Die Analyse der stellaren Population in Galaxien gibt Auskunft über die Sternentstehungsgeschichte und die Erzeugung von schweren Elementen. Die Analyse der Bewegung der Sterne gibt Auskunft über die dynamische Entwicklung, Interaktionen und Kollisionen von Galaxien, sowie die Akkretion von Gas. Die Untersuchung der Galaxienentwicklung ist in den letzten Jahrzehnten zu einem der wichtigsten Bereiche in der modernen Astrophysik geworden und die Einführung der Integral-Feldspektroskopie hat viel zu unserem heutigen Verständnis beigetragen. Die Grundlage dieser Arbeit bilden Spektren von der Galaxie NGC 5102. Die Spektren wurden mit dem Integral-Feldspektrographen MUSE aufgenommen, welcher sich durch ein groß es Gesichtsfeld auszeichnet. Die Daten werden mit zwei unterschiedlichen und sich ergänzenden Methoden analysiert: Im ersten Teil der Arbeit benutze ich etablierte Methoden um die Bewegung der Sterne zu vermessen und daraus das Gravitationspotential der Galaxie abzuleiten. Dieser Teil der Arbeit profitiert insbesondere von der ausgezeichneten Datenqualität. Im zweiten Teil der Arbeit entwickle ich erstmalig eine Methode für die Datenanalyse zur Extraktion von spektroskopischen Flächenhelligkeitsfluktuationen und quantifiziere deren Potential für die Untersuchung der hellen und entwickelten Sterne in Galaxien. Durch die Analyse der Bewegung der Sterne in NGC 5102 habe ich entdeckt, dass diese S0 Galaxie aus zwei entgegengesetzt rotierenden Scheiben besteht. Durch die Kombination von meinen Ergebnissen mit publizierten Messungen der Rotation des HI Gases finde ich, dass dieses in die gleiche Richtung rotiert wie die innere Scheibe. Die Analyse der stellaren Population zeigt starke Gradienten im mittleren Alter und der mittleren Metallizität. Dabei ist die stellare Population im Zentrum jünger und hat eine höhere Metallizität. Die spektrale Auflösung von MUSE reicht nicht aus, um zu untersuchen, ob diese Gradienten in der Population mit den beiden entgegengesetzt rotierenden Scheiben verbunden sind. Um das Gravitationspotential von NGC 5102 zu untersuchen, modelliere ich die gemessene Kinematik mit anisotropen Jeans Modellen. Keines der Modelle in dem ich annehme, dass die Massenverteilung der Verteilung des Lichts folgt, ist in der Lage die gemessene Kinematik zu reproduzieren. Nach meinem Wissen ist dies der bislang stärkste Hinweis auf Dunkle Materie, der mit dieser Methode in einer einzelnen Galaxie bisher erzielt worden ist. Durch das Hinzufügen einer sphärischen Dunkle Materie Komponente in Form eines Navarro, Frenk & White Halos kann die Diskrepanz zwischen Beobachtung und Modell gelöst werden. Fast modelunabhängig lässt sich die Steigung des logarithmischen Dichteprofils der gesamten (sichtbare und dunkle) Materie messen. In dieser massearmen Galaxie finde ich einen Wert von -1.75 +- 0.04. Diese Steigung ist flacher als die eines isotermen Dichteprofils und noch flacher als die Steigungen die für massereiche Galaxien veröffentlicht wurden. Diese Ergebnisse bestätigen eine bisher nur angedeutete Korrelation zwischen der Steigung des Dichteprofils und der stellaren Masse. Flächenhelligkeitsfluktuationen (Surface Brightness Fluctuations, SBF) sind eine etablierte Methode zur Entfernungsbestimmung von Galaxien. SBF werden von den hellsten Sternen in einer Population verursacht und werden daher auch benutzt, um diese Sterne zu untersuchen. MUSE zeichnet sich durch die einmalige Kombination von einem groß en Gesichtsfeld, mit einem guten räumlichen Sampling, und einer spektroskopischen Zerlegung des Lichts über das gesamte Gesichtsfeld aus. Dadurch kann die SBF Methode erstmalig auf Spektren angewendet werden. In dieser Arbeit entwickle ich die Methode der spektroskopischen SBF und messe das erste SBF Spektrum von einer Galaxie. Dabei diskutiere ich insbesondere die Herausforderungen die sich durch die Komplexität von Integral-Feldspektrographen verglichen mit bildgebenden Instrumenten für die SBF Methode ergeben. Seit langem sagen stellare Populationsmodelle voraus, dass die SBF in stellaren Populationen, die älter als etwa 0.5 Gyr sind, von Sternen auf dem roten und dem asymptotischen Riesenast erzeugt werden. Dabei ist insbesondere die Modellierung von Sternen des asymptotischen Riesenastes schwierig, weshalb diese wissenschaftlich besonders interessant sind. Der Vergleich des gemessenen SBF Spektrums von NGC 5102 mit Spektren von Riesensternen zeigt, dass das SBF Spektrum von Sternen mit dem Spektraltyp M dominiert wird. Nach allen Standardmodellen der stellaren Entwicklung sollten auch kohlenstoffreiche Riesensterne vom Spektraltyp C im SBF Spektrum sichtbar sein. Zu dem gemessenen SBF Spektrum tragen diese Sterne aber nicht signifikant bei. Ich habe eine stellar population synthesis Software geschrieben, die zum ersten Mal auch SBF Spektrenmodelle berechnet. Mit dieser Software habe ich zwei verschiedene Versionen von Modellen berechnet: die eine basiert auf beobachteten Sternspektren, die andere auf theoretischen Modellen von Sternspektren. Die Version der SBF Modellspektren, die auf den beobachteten Sternspektren beruht, zeigt schwächere molekulare Absorptionsbanden. Der Vergleich mit dem SBF Spektrum von NGC 5102 zeigt, dass diese Modelle besser zu den Daten passen. KW - galaxy KW - kinematics KW - stellar population KW - Galaxien KW - Kinematik KW - stellare Population Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406327 ER - TY - THES A1 - Mondol López, Mijail T1 - Historiografía literaria y Sociedad T1 - Literary historiography and society T1 - Literarische Historiographie und Gesellschaft BT - Una interpretación socio-discursiva del pensamiento histórico literario centroamericano BT - a socio-discursive interpretation of the central american historical-literary thought BT - eine sozio-diskursive Interpretation des zentralamerikanischen historisch-literarischen Denkens N2 - Throughout all different socio-historical tensions undergone by the Latin American modernit(ies), the literary-historical production as well as the reflection on the topic - regional, national, supranational and/or continental – have been part of the critical and intellectual itinerary of very significant political and cultural projects, whose particular development allows the analysis of the socio-discursive dynamics fulfilled by the literary historiography in the search of a historical conscience and representation of the esthetic-literary processes. In present literary and cultural Central American literary studies, the academic thought on the development of the literary historiography has given place to some works whose main objects of study involve a significant corpus of national literature histories published mainly in the 20th century, between the forties and the eighties. Although these studies differ greatly from the vast academic production undertaken by the literary critics in the last two decades, the field of research of the literary historiography in Central America has made a theoretical-methodological effort, as of the eighties and until now, to analyze the local literary-historical productions. However, this effort was carried out more systematically in the last five years of the 20th century, within the Central American democratic transition and post-war context, when a national, supra national and transnational model of literary history was boosted. This gave place to the creation and launching of the project Hacia una Historia de las Literaturas Centroamericanas (HILCAS) at the beginning of the new millennium. Given the ideological relevance which the literary historiography has played in the process of the historical formation of the Hispano-American States, and whose philological tradition has also had an impact in the various Central American nation states, the emergence of this historiographic project marks an important rupture in relation with the national paradigms, and it is also manifested in a movement of transition and tension with regard to the new cultural, comparative and transareal dynamics, which seek to understand the geographical, transnational, medial and transdisciplinary movements within which the esthetic narrative processes and the idea and formation of a critical Central American subject gain shape. Taking this aspect into account, our study puts forward as its main hypothesis that the historiographic thought developed as a consequence of the project Hacia una Historia de las Literaturas Centroamericanas (HILCAS) constitutes a socio-discursive practice, which reflects the formation of a historic-literary conscience and of a critical intellectual subject, an emergence that takes place between the mid-nineties and the first decade of the 21st century. In this respect, and taking as a basis the general purpose of this investigation indicated before, the main justification for our object of study consists of making the Central American historiographic reflection visible as a part of the epistemological and cultural changes shown by the Latin American historiographic thought, and from which a new way of conceptualization of the space, the coexistence and the historic conscience emerge with regard to the esthetic-literary practices and processes. Based on the field and hypothesis stated before, the general purpose of this research is framed by the socio-discursive dimension fulfilled by the Latin American literary historiography, and it aims to analyze the Central American historical-literary thought developed between the second half of the nineties and the beginning of the first decade of the 21st century. N2 - Während der unterschiedlichen soziohistorischen Spannungen, die die lateinamerikanische(n) Moderne(n) durchquerten, waren sowohl die historisch-literarische Produktion als auch die Reflexion, seien sie regionaler, nationaler, supranationaler und/oder kontinentaler Art, ein Teil des kritischen und intellektuellen Weges bedeutender politischer und kultureller Projekte, deren besondere Entwicklung es gestattet, die sozio-diskursive Dynamik zu analysieren, die die literarische Historiographie bei der Suche eines historischen Bewusstseins und einer Repräsentation ästhetischliterarischer Prozesse erfüllt. In zeitgenössischen literaturgeschichtlichen und kulturwissenschaftlichen Forschungen in Zentralamerika führte das akademische Nachdenken über die Entwicklung der literarischen Historiographie zu einigen Forschungsprojekten, deren wichtigste Studienobjekte aus einem signifikanten Korpus nationaler Literaturgeschichten bestehen, die hauptsächlich zwischen den vierziger und achtziger Jahren publiziert wurden. Wenngleich die erwähnten Forschungsarbeiten in vielbedeutendem Kontrast zu der umfassenden akademischen Produktion stehen, die in die literarische Kritik während der letzten zwei Jahrzehnte eingedrungen ist, wurde im Forschungsbereich der literarischen Historiografie in Zentralamerika seit den achtziger Jahren bis zur Gegenwart ein theoretisch-methodischer Aufwand betrieben um die historisch-literarischen Produktionen lokaler Art zu analysieren. Trotzdem wurde erst ab Mitte der neunziger Jahre des 20. Jahrhunderts im Kontext des demokratischen Übergangs und der zentralamerikanischen Nachkriegszeit mit größerer Systematisierung der Entwurf eines historisch literarischen Modells supra- und transnationaler Art vorangetrieben, der dazu führte, dass gegen Anfang des neuen Jahrtausends das Projekt Hacia una Historia de las Literaturas Centroamericanas (HILCAS) erschaffen und initiiert wurde. Aufgrund der ideologischen Relevanz, die die literarische Historiographie im Prozess der hispanoamerikanischen Nationalstaatenbildung besaß und deren philologische Tradition der Entwicklung der unterschiedlichen zentralamerikanischen Nationalstaaten nicht fern stand, erscheint die Entstehung dieses historiographischen Projektes als wichtiges Zeichen für einen Bruch gegenüber den nationalen Paradigmen, wobei es sich gleichzeitig in einer Dynamik des Übergangs und der Spannung zeigt in Bezug auf die neuen kulturellen, komparativen und trans-arealen Dynamiken, die versuchen, die geographischen, transnationalen, medialen und transdisziplinären Verschiebungen zu verstehen, in denen sich die ästhetisch-narrativen Prozesse und die Bildung eines kritischen zentralamerikanischen Subjekts dynamisieren. In Anbetracht dieses letzten Aspektes behauptet die zentrale Hypothese der vorliegenden Forschungsarbeit, dass das historiographische Denken, das von dem Projekt Hacia una Historia de las Literaturas Centroamericanas (HILCAS) aus entwickelt wurde, eine soziodiskursive Praktik begründet, von der aus die Bildung eines historisch literarischen Bewusstseins und eines kritisch intellektuellen Subjekts bewiesen wird, das zwischen der Mitte der neunziger Jahre und den ersten Jahrzehnten des 21. Jahrhunderts eingeschrieben ist. In diesem Sinn und auf Grundlage des übergreifenden Vorhabens, das in dieser Forschungsarbeit geäußert wurde, besteht der wichtigste Nachweis, auf den unser Studienobjekt hinweist, in der Sichtbarmachung des Nachdenkens über die zentralamerikanische Historiografie als Teil der epistemologischen und kulturellen Veränderungen, die das lateinamerikanische historiografische Denken während der letzten zwei Jahrzehnte erfuhr und von dem aus eine neue Form der Konzeptualisierung des Raums, der Konvivenz und des historischen Bewusstseins in Bezug auf ästhetisch-literarische Praktiken und Prozesse errichtet wird. Auf Grundlage der vorher formulierten Bereiche und Hypothesen umfasst das allgemeine Ziel dieser Forschungsarbeit die sozio-diskursive Dimension, die die literarische Historiographie in Lateinamerika erfüllte mit der Absicht, das historische literarische Denken in Zentralamerika zu analysieren, das zwischen Mitte der neunziger Jahre und den Anfängen der ersten Jahrzehnte des 21. Jahrhunderts entwickelt wurde. KW - Central American literary historiography KW - literary criticism KW - historical conscience KW - historical subject KW - Central American literary studies KW - Central America KW - socio-discourse KW - zentralamerikanische literarische Historiographie KW - literarische Kritik KW - historisches Bewusstsein KW - historisches Subjekt KW - zentralamerika KW - soziodiskurs Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406409 ER - TY - THES A1 - Morling, Karoline T1 - Import and decomposition of dissolved organic carbon in pre-dams of drinking water reservoirs T1 - Eintrag und Abbau von gelösten Kohlenstoffen in Vorsperren von Trinkwassertalsperren N2 - Dissolved organic carbon (DOC) depicts a key component in the aquatic carbon cycle as well as for drinking water production from surface waters. DOC concentrations increased in water bodies of the northern hemisphere in the last decades, posing ecological consequences and water quality problems. Within the pelagic zone of lakes and reservoirs, the DOC pool is greatly affected by biological activity as DOC is simultaneously produced and decomposed. This thesis aimed for a conceptual understanding of organic carbon cycling and DOC quality changes under differing hydrological and trophic conditions. Further, the occurrence of aquatic priming was investigated, which has been proposed as a potential process facilitating the microbial decomposition of stable allochthonous DOC within the pelagic zone. To study organic carbon cycling under different hydrological conditions, quantitative and qualitative investigations were carried out in three pre-dams of drinking water reservoirs exhibiting a gradient in DOC concentrations and trophic states. All pre-dams were mainly autotrophic in their epilimnia. Discharge and temperature were identified as the key factors regulating net production and respiration in the upper water layers of the pre-dams. Considerable high autochthonous production was observed during the summer season under higher trophic status and base flow conditions. Up to 30% of the total gained organic carbon was produced within the epilimnia. Consequently, this affected the DOC quality within the pre-dams over the year and enhanced characteristics of algae-derived DOC were observed during base flow in summer. Allochthonous derived DOC dominated at high discharges and oligotrophic conditions when production and respiration were low. These results underline that also small impoundments with typically low water residence times are hotspots of carbon cycling, significantly altering water quality in dependence of discharge conditions, temperature and trophic status. Further, it highlights that these factors need to be considered in future water management as increasing temperatures and altered precipitation patterns are predicted in the context of climate change. Under base flow conditions, heterotrophic bacteria preferentially utilized older DOC components with a conventional radiocarbon age of 195-395 years before present (i.e. before 1950). In contrast, younger carbon components (modern, i.e. produced after 1950) were mineralized following a storm flow event. This highlights that age and recalcitrance of DOC are independent from each other. To assess the ages of the microbially consumed DOC, a simplified method was developed to recover the respired CO2 from heterotrophic bacterioplankton for carbon isotope analyses (13C, 14C). The advantages of the method comprise the operation of replicate incubations at in-situ temperatures using standard laboratory equipment and thus enabling an application in a broad range of conditions. Aquatic priming was investigated in laboratory experiments during the microbial decomposition of two terrestrial DOC substrates (peat water and soil leachate). Thereby, natural phytoplankton served as a source of labile organic matter and the total DOC pool increased throughout the experiments due to exudation and cell lysis of the growing phytoplankton. A priming effect for both terrestrial DOC substrates was revealed via carbon isotope analysis and mixing models. Thereby, priming was more pronounced for the peat water than for the soil leachate. This indicates that the DOC source and the amount of the added labile organic matter might influence the magnitude of a priming effect. Additional analysis via high-resolution mass spectrometry revealed that oxidized, unsaturated compounds were more strongly decomposed under priming (i.e. in phytoplankton presence). Given the observed increase in DOC concentrations during the experiments, it can be concluded that aquatic priming is not easily detectable via net concentration changes alone and could be considered as a qualitative effect. The knowledge gained from this thesis contributes to the understanding of aquatic carbon cycling and demonstrated how DOC dynamics in freshwaters vary with hydrological, seasonal and trophic conditions. It further demonstrated that aquatic priming contributes to the microbial transformation of organic carbon and the observed decay of allochthonous DOC during transport in inland waters. N2 - Gelöster organischer Kohlenstoff (dissolved organic carbon, DOC) bildet nicht nur eine zentrale Komponente des aquatischen Kohlenstoffkreislaufs, sondern auch für die Gewinnung von Trinkwasser aus Oberflächengewässern. In den letzten Jahrzehnten stiegen die DOC-Konzentrationen in Gewässern der nördlichen Hemisphäre an und führen sowohl zu ökologischen Konsequenzen als auch zu Wasserqualitätsproblemen. Die Zusammensetzung des DOC im Pelagial von Seen und Talsperren wird erheblich durch biologische Aktivität beeinflusst, da DOC-Verbindungen gleichzeitig produziert und abgebaut werden. Im Fokus meiner Dissertation standen ein konzeptionelles Verständnis des organischen Kohlenstoffkreislaufs und die damit verbundenen Änderungen in der DOC-Qualität unter verschiedenen hydrologischen und trophischen Bedingungen. Weiterhin wurde das Auftreten eines aquatischen Priming-Effektes untersucht, welcher den mikrobiellen Abbau von stabilem allochthonem DOC im Pelagial fördern könnte. Quantitative und qualitative Untersuchungen wurden unter verschiedenen hydrologischen Bedingungen in drei Vorsperren von Trinkwassertalsperren durchgeführt, die einen Gradienten an DOC-Konzentrationen und Trophie aufwiesen. Alle Vorsperren waren im Epilimnion überwiegend autotroph. Abfluss und Temperatur wurden als Schlüsselfaktoren identifiziert, die Produktion und Respiration in den oberen Wasserschichten der Vorsperren regulieren. Eine vergleichsweise hohe autotrophe Produktion wurde während der Sommer-monate bei hoher Trophie und Basisabfluss beobachtet. Bis zu 30% des gesamten eingetragenen organischen Kohlenstoffes wurde im Epilimnion produziert. Dies beeinflusste die DOC-Qualität in den Vorsperren erheblich und es traten vermehrt Charakteristiken von algenbürtigem DOC unter Basisabfluss in den Sommermonaten auf. Allochthoner DOC dominierte bei hohen Abflüssen und unter oligotrophen Bedingungen, wenn Produktion und Respiration gering waren. Diese Ergebnisse unterstreichen, dass auch kleine Speicherbecken mit typischerweise kurzen Wasser-aufenthaltszeiten „Hotspots“ für Kohlenstoffumsetzung sind und die Wasserqualität signifikant in Abhängigkeit von Abflussbedingungen, Temperatur und Trophie verändern. Diese Faktoren sind auch für zukünftiges Wassermanagement bedeutsam, da steigende Temperaturen und veränderte Niederschläge im Zuge des Klimawandels prognostiziert werden. Unter Basisabfluss verwerteten heterotrophe Bakterien vorrangig ältere DOC-Komponenten mit einem konventionellen Radiokarbonalter von 195-395 Jahren B.P. („before present“, d. h. vor 1950). Im Gegensatz dazu wurden jüngere DOC-Komponenten (modern, d. h. nach 1950 produziert) nach einem Regenwetterzufluss abgebaut. Daraus lässt sich schließen, dass Alter und mikrobielle Verwertbarkeit des DOC voneinander unabhängig sind. Um das Alter des genutzten DOC zu bestimmen, wurde eine vereinfachte Methode entwickelt, die das Auffangen des bakteriell respirierten CO2 und eine anschließende Analyse der Kohlenstoffisotope (13C, 14C) ermöglicht. Die Vorteile der Methode liegen vor allem in der Verwendung von Replikaten, die bei in-situ Temperaturen inkubiert werden können und in der Nutzung von gängiger Laborausstattung. Dies ermöglicht eine Anwendung der Methode unter einer weiten Bandbreite von Bedingungen. Der aquatische Priming-Effekt wurde in Laborexperimenten während des mikrobiellen Abbaus von zwei terrestrischen DOC-Substraten (Moorwasser und Bodeneluat) untersucht. Phytoplankton diente als Quelle für labile organische Substanz und die DOC-Konzentrationen nahmen durch Exudation und Zelllysis des wachsenden Phytoplanktons während des Experimentes zu. Ein Priming-Effekt wurde für beide terrestrischen DOC-Substrate mittels Analyse von Kohlenstoffisotopen und Mischungsmodellen nachgewiesen, wobei der Priming-Effekt für das Moorwasser stärker ausgeprägt war als für das Bodeneluat. Analysen mittels hochauflösender Massenspektrometrie zeigten, dass verstärkt oxidierte und ungesättigte Verbindungen während des Primings (d. h. in Anwesenheit von Phytoplankton) abgebaut wurden. Aus den angestiegenen DOC-Konzentrationen während des Experimentes kann geschlussfolgert werden, dass ein aquatischer Priming-Effekt nicht allein über Konzentrationsänderungen nachweisbar ist und vielmehr als ein qualitativer Effekt betrachtet werden kann. Diese Arbeit trägt zum Verständnis des aquatischen Kohlenstoffkreislaufs bei und zeigt wie DOC-Dynamiken in Süßgewässern mit hydrologischen, saisonalen und trophischen Bedingungen variieren. Weiterhin wurde gezeigt, dass der aquatische Priming-Effekt zu dem mikrobiellen Umsatz von organischem Kohlenstoff und dem beobachteten Abbau von terrestrischen DOC während des Transportes in Binnengewässern beiträgt. KW - organic carbon KW - water reservoir KW - freshwater ecosystems KW - carbon isotopes KW - degradation KW - radiocarbon KW - autotrophy KW - net production KW - organic matter quality KW - high resolution mass spectrometry KW - microbial decomposition KW - organischer Kohlenstoff KW - Talsperre KW - Kohlenstoffisotope KW - Radiokarbon KW - Autotrophie KW - Nettoproduktion KW - organisches Material KW - hochauflösende Massenspektrometrie KW - mikrobieller Abbau KW - gelöster organischer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-399110 ER - TY - THES A1 - Mosca, Michela T1 - Multilinguals' language control T1 - Sprachkontrolle bei Mehrsprachigen N2 - For several decades, researchers have tried to explain how speakers of more than one language (multilinguals) manage to keep their languages separate and to switch from one language to the other depending on the context. This ability of multilingual speakers to use the intended language, while avoiding interference from the other language(s) has recently been termed “language control”. A multitude of studies showed that when bilinguals process one language, the other language is also activated and might compete for selection. According to the most influential model of language control developed over the last two decades, competition from the non-intended language is solved via inhibition. In particular, the Inhibitory Control (IC) model proposed by Green (1998) puts forward that the amount of inhibition applied to the non-relevant language depends on its dominance, in that the stronger the language the greater the strength of inhibition applied to it. Within this account, the cost required to reactivate a previously inhibited language depends on the amount of inhibition previously exerted on it, that is, reactivation costs are greater for a stronger compared to a weaker language. In a nutshell, according to the IC model, language control is determined by language dominance. The goal of the present dissertation is to investigate the extent to which language control in multilinguals is affected by language dominance and whether and how other factors might influence this process. Three main factors are considered in this work: (i) the time speakers have to prepare for a certain language or PREPARATION TIME, (ii) the type of languages involved in the interactional context or LANGUAGE TYPOLOGY, and (iii) the PROCESSING MODALITY, that is, whether the way languages are controlled differs between reception and production. The results obtained in the four manuscripts, either published or in revision, indicate that language dominance alone does not suffice to explain language switching patterns. In particular, the present thesis shows that language control is profoundly affected by each of the three variables described above. More generally, the findings obtained in the present dissertation indicate that language control in multilingual speakers is a much more dynamic system than previously believed and is not exclusively determined by language dominance, as predicted by the IC model (Green, 1998). N2 - Viele Jahrzehnte lang haben Forscher versucht zu erklären, wie es Menschen, die mehr als eine Sprache sprechen (Mehrsprachige), gelingt, Sprachen zu unterscheiden und je nach Kontext zwischen den Sprachen zu wechseln. Diese Fähigkeit von Mehrsprachigen die geplante Sprache zu benutzen und die Interferenzen mit den anderen Sprachen zu vermeiden wird als „Sprachkontrolle“ bezeichnet. Eine Vielzahl von Studien haben gezeigt, dass wenn ein Zweisprachiger eine Sprache verarbeitet, wird die andere Sprache auch aktiviert, sodass sie Teil der Sprachplanung werden könnte. Nach dem beeinflussendesten Modell über Sprachkontrolle, entwickelt in den letzten zwei Jahrzehnten, ist Konkurrenz von der nicht beteiligten Sprache durch Inhibition dieser Sprache abgeschafft. Insbesondere schlägt das von Green (1998) aufgestellte Inhibitory Control (IC) Modell vor, dass die Inhibitionsmenge, die benötigt wird, um eine nicht beteiligte Sprache zu unterdrücken, von der Sprachdominanz abhängig ist, beziehungsweise je stärker die Sprache desto mehr Inhibition wird benötigt, um diese Sprache zu inhibieren. Innerhalb dieser Darstellung, sind die Reaktivierungskosten einer unterdrückten Sprache von der Inhibitionsmenge in dieser Sprache abhängig, das heißt, die Reaktivierungskosten sind größer für die stärkere als für die schwächere Sprache. Zusammengefasst nach dem IC Modell ist die Sprachkontrolle durch Sprachdominanz geregelt. Das Ziel dieser Dissertation ist zu untersuchen, inwiefern Sprachkontrolle bei Mehrsprachigen durch Sprachdominanz geregelt ist und ob und wie andere Faktoren diesen Prozess beeinflussen. Drei Hauptfaktoren sind in dieser Arbeit untersucht: (i) die Zeit über die Sprecher verfügen, um sich für eine bestimmte Sprache vorzubereiten oder VORBEREITUNGSZEIT, (ii) die Typologie der involvierten Sprachen oder SPRACHTYPOLOGIE und (iii) die VERARBEITUNGSMODALITÄT, das heißt, ob Sprachverarbeitung in Produktion und Erkennung anders oder gleich ist. Die Ergebnisse aus den vier Manuskripten, entweder veröffentlicht oder in Revision, zeigen, dass Sprachdominanz allein nicht die Sprachwechselergebnisse erklären kann. Insbesondere weist diese Doktorarbeit darauf hin, dass Sprachkontrolle stark von den drei obengenannten Faktoren beeinflusst ist. Im Allgemeinen zeigen die Ergebnisse dieser Dissertation, dass Sprachkontrolle bei Mehrsprachigen ein bedeutend dynamischeres System ist als vorher gedacht, und sie ist nicht ausschließlich durch Sprachdominanz geregelt, wie das IC Modell (Green, 1998) vorschlägt. KW - language switching KW - language inhibition KW - bilingualism KW - trilingualism KW - multilingualism KW - IC Model KW - language production KW - language recognition KW - Sprachwechsel KW - Sprachinhibition KW - Zweisprachigkeit KW - Dreisprachigkeit KW - Mehrsprachigkeit KW - IC Modell KW - Sprachproduktion KW - Spracherkennung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398912 ER - TY - THES A1 - Muldashev, Iskander T1 - Modeling of the great earthquake seismic cycles T1 - Modellierung der seismischen Zyklen von Mega-Erdbeben N2 - The timing and location of the two largest earthquakes of the 21st century (Sumatra, 2004 and Tohoku 2011, events) greatly surprised the scientific community, indicating that the deformation processes that precede and follow great megathrust earthquakes remain enigmatic. During these phases before and after the earthquake a combination of multi-scale complex processes are acting simultaneously: Stresses built up by long-term tectonic motions are modified by sudden jerky deformations during earthquakes, before being restored by multiple ensuing relaxation processes. This thesis details a cross-scale thermomechanical model developed with the aim of simulating the entire subduction process from earthquake (1 minute) to million years’ time scale, excluding only rupture propagation. The model employs elasticity, non-linear transient viscous rheology, and rate-and-state friction. It generates spontaneous earthquake sequences, and, by using an adaptive time-step algorithm, recreates the deformation process as observed naturally over single and multiple seismic cycles. The model is thoroughly tested by comparing results to those from known high- resolution solutions of generic modeling setups widely used in modeling of rupture propagation. It is demonstrated, that while not modeling rupture propagation explicitly, the modeling procedure correctly recognizes the appearance of instability (earthquake) and correctly simulates the cumulative slip at a fault during great earthquake by means of a quasi-dynamic approximation. A set of 2D models is used to study the effects of non-linear transient rheology on the postseismic processes following great earthquakes. Our models predict that the viscosity in the mantle wedge drops by 3 to 4 orders of magnitude during a great earthquake with magnitude above 9. This drop in viscosity results in spatial scales and timings of the relaxation processes following the earthquakes that are significantly different to previous estimates. These models replicate centuries long seismic cycles exhibited by the greatest earthquakes (like the Great Chile 1960 Earthquake) and are consistent with the major features of postseismic surface displacements recorded after the Great Tohoku Earthquake. The 2D models are also applied to study key factors controlling maximum magnitudes of earthquakes in subduction zones. Even though methods of instrumentally observing earthquakes at subduction zones have rapidly improved in recent decades, the characteristic recurrence interval of giant earthquakes (Mw>8.5) is much larger than the currently available observational record and therefore the necessary conditions for giant earthquakes are not clear. Statistical studies have recognized the importance of the slab shape and its surface roughness, state of the strain of the upper plate and thickness of sediments filling the trenches. In this thesis we attempt to explain these observations and to identify key controlling parameters. We test a set of 2D models representing great earthquake seismic cycles at known subduction zones with various known geometries, megathrust friction coefficients, and convergence rates implemented. We found that low-angle subduction (large effect) and thick sediments in the subduction channel (smaller effect) are the fundamental necessary conditions for generating giant earthquakes, while the change of subduction velocity from 10 to 3.5 cm/yr has a lower effect. Modeling results also suggest that having thick sediments in the subduction channel causes low static friction, resulting in neutral or slightly compressive deformation in the overriding plate for low-angle subduction zones. These modeling results agree well with observations for the largest earthquakes. The model predicts the largest possible earthquakes for subduction zones of given dipping angles. The predicted maximum magnitudes exactly threshold magnitudes of all known giant earthquakes of 20th and 21st centuries. The clear limitation of most of the models developed in the thesis is their 2D nature. Development of 3D models with comparable resolution and complexity will require significant advances in numerical techniques. Nevertheless, we conducted a series of low-resolution 3D models to study the interaction between two large asperities at a subduction interface separated by an aseismic gap of varying width. The novelty of the model is that it considers behavior of the asperities during multiple seismic cycles. As expected, models show that an aseismic gap with a narrow width could not prevent rupture propagation from one asperity to another, and that rupture always crosses the entire model. When the gap becomes too wide, asperities do not interact anymore and rupture independently. However, an interesting mode of interaction was observed in the model with an intermediate width of the aseismic gap: In this model the asperities began to stably rupture in anti-phase following multiple seismic cycles. These 3D modeling results, while insightful, must be considered preliminary because of the limitations in resolution. The technique developed in this thesis for cross-scale modeling of seismic cycles can be used to study the effects of multiple seismic cycles on the long-term deformation of the upper plate. The technique can be also extended to the case of continental transform faults and for the advanced 3D modeling of specific subduction zones. This will require further development of numerical techniques and adaptation of the existing advanced highly scalable parallel codes like LAMEM and ASPECT. N2 - Zeitpunkt und Ort der zwei größten Erdbeben des 21. Jahrhunderts (Sumatra 2004 und Tohoku 2011) überraschten die wissenschaftliche Gemeinschaft, da sie darauf hindeuten, dass die einem Megathrust-Erdbeben vorangehenden und folgenden Deformationsprozesse weiterhin rästelhaft bleiben. Ein Problem ist die komplexe Art der Subduktionsprozesse auf unterschiedlichen Skalen. Spannungen werden durch langzeitliche, tektonische Bewegungen aufgebaut, von plötzlicher, ruckartiger Deformation während Erdbeben modifiziert und anschließend durch verschiedene Entspannungsprozesse wiederhergestellt. In dieser Arbeit wird ein skalen-übergreifendes thermomechanisches Modell entwickelt mit dem Ziel den vollständigen Subduktionsprozess von kleiner Skala (Minuten, z.B. Erdbeben) bis zu Millionen Jahren zu simulieren. Dabei bleibt nur das dynamische Prozess der unberücksichtigt. Das Modell nutzt Elastizität, nicht-lineare transient viskose Rheologie und „rate-and-state“ Reibungsgesetz. Es erzeugt spontane Erdbeben-Sequenzen und stellt durch das Nutzen eines adaptiven Zeitschritt Algorithmus den Deformationsprozess nach, wie er in der Natur während einzelner und mehrerer seismischer Zyklen beobachtet wird. Anhand der 2D-Modell Reihe werden die Effekte der nicht-linearen transient (viskosen) Rheologie auf postseismische Prozesse nach großen Erdbeben untersucht. Die Modelle sagen eine Verringerung der Mantelkeil-Viskosität um 3 bis 4 Größenordnungen während der großen Erdbeben (Mw > 9) vorher. Im Gegensatz zur momentanen Meinung, ergeben sich andere räumliche und zeitliche Verteilungen des Entspannungsprozesses nach großen Erdbeben. Jahrhunderte lange seismische Zyklen, wie zum Beispiel das große Erdbeben in Chile 1960, werden reproduziert und stimmen mit den Hauptmerkmalen der postseismischen Oberflächenverschiebungen überein, die nach dem großen Tohoku Erdbeben aufgezeichnet wurden. Mithilfe der 2D-Modelle werden außerdem Schlüsselfaktoren untersucht, die die maximale Magnitude von Erdbeben bestimmen. Obwohl die instrumentellen Methoden zur Beobachtung von Erdbeben in Subduktionszonen in den letzten Jahrzehnten stetig verbessert wurden, kann das Auftreten der größten Erdbeben (Mw > 8.5) und die dafür vorrauszusetzenden Bedingungen nicht genau bestimmt werden, da die charackeristische Zeit für ein Wiederauftreten deutlich größer als der Beobachtungszeitraum ist. Wir versuchen in dieser Arbeit diese Beobachtungen zu erklären und die kontrollierenden Schlüsselfaktoren zu bestimmen. Eine 2D-Modell Reihe mit großen, seismischen Erdbebenzyklen untersucht unterschiedliche Geometrien von Subduktionszonen sowie Reibungskoeffizieten an der Subduktions Platten-Grenzoberfläche und Konvergenzraten. Subduktion mit geringem Winkel (großer Effekt) und mächtige Sedimente im Subduktionskanal (kleiner Effekt) sind grundlegend notwendige Bedingungen für riesige Erdbeben, während eine Änderung des Reibungsparameters nur geringe Auswirkungen hat. Die Modellierungsergebnisse sind in viiÜbereinstimmung mit den Beobachtungen von den größten Erdbeben. Die maximale vohergesagte Magnituden liegen an der oberen Grenze alle historische Beben der 20. und 21. Jahrhunderden. Die größte Einschränkung der entwickelten Modelle ist ihre 2-dimensionale Natur. Um die Interaktion zwischen zwei großen Unebenheiten („asperities“) auf der Subduktions Platten-Grenzoberfläche, die von einer aseismischen Lücke („gap“) voneinander getrennt sind, zu untersuchen, wurde eine 3D-Modell Reihe mit geringer Auflösung durchgeführt. Neu an diesem Modell ist, dass das Verhalten der Unebenheiten während mehrerer seismischer Zyklen berücksichtigt wird. Wie erwartet zeigt das Modell, dass eine schmale, aseismische Lücke ein Propagieren von Brüchen von einer Unebenheit zur nächsten nicht verhindern kann und diese Brüche das gesamte Modell durchkreuzen. Wird die Lücke zu groß interagieren die Unebenheiten nicht mehr miteinander und brechen unabhängig voneinander. Allerdings wurde in dem Modell mit mittlerer Breite der aseismischen Lücke eine interessante Art von Interaktion beobachtet: Nach einigen seismischen Zyklen beginnen die Unebenheiten kontinuerlich und zwar in Gegen-Phasen zu brechen. Diese Ergebnisse sind andeutend, aber können aufgrund der geringen Auflösung des Models nur als vorläufig angesehen werden und erfordern weitere Bestätigung mit hoch-auflösenden Modellen. KW - earthquake modeling KW - seismic cycle modeling KW - subduction KW - numerical modeling KW - Erdbeben Modellierung KW - Modellierung des seismischen Zyklus KW - Subduktion KW - numerische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398926 ER - TY - THES A1 - Munz, Matthias T1 - Water flow and heat transport modelling at the interface between river and aquifer T1 - Wasserfluss- und Wärmetransportmodellierung an der Schnittstelle zwischen Fluss und Grundwasserleiter N2 - The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns. The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions. The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches. N2 - Die Interaktion zwischen Oberflächenwasser und Grundwasser hat einen entscheidenden Einfluss auf die Wasserqualität und die ökologische Beschaffenheit von Seen, Flüssen und aquatischen Ökosystemen. Der Austausch von Wärme und gelösten Substanzen zwischen diesen beiden Kompartimenten ist maßgeblich durch die Austauschraten und die Strömungsrichtung des Wassers beeinflusst. Somit ist die Charakterisierung dieser beiden Größen in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser von besonderer Bedeutung. Diese Arbeit präsentiert die Entwicklung und Anwendung von Methoden zur Untersuchung der zeitlichen und räumlichen Dynamik des Wasser- und Wärmeflusses an der Schnittstelle zwischen Oberflächenwasser und Grundwasser. Die Arbeit besteht im Wesentlichen aus zwei Schwerpunkten. Der erste Schwerpunkt beinhaltet die Entwicklung und Bewertung von analytischen und numerischen Methoden zur Bestimmung der horizontalen Strömungsrichtung und Austauschraten unter Verwendung von kontinuierlich gemessenen Temperaturzeitreihen entlang vertikaler Profile im gesättigten Sediment. Flussbetttemperaturen können relativ einfach und kostengünstig entlang eines Flussabschnittes in verschiedenen Tiefen und unterschiedlichsten Flussbettsedimenten (organisch, sandig bis grob kiesig) gemessen werden. Die Hauptverwendung solcher Temperaturprofile ist bisher auf die analytische Quantifizierung vertikaler Austauschraten limitiert. Im Rahmen dieser Arbeit wurde ein Ansatz entwickelt, der eine punktuelle Ermittlung der horizontalen Strömungs-komponente, basierend auf der Veränderung der täglichen Temperaturamplitude mit zunehmender Tiefe, ermöglicht. Weiterhin wurde ein inverser, numerischer Ansatz entwickelt, der die ein-dimensionale Wärmetransportgleichung numerisch löst und mittels inverser Optimierungsalgorithmen die simulierten Temperaturen bestmöglich an die gemessenen Flussbetttemperaturen anpasst. Diese Methode ermöglicht die automatische, zeitlich variable Quantifizierung vertikaler Austauschraten an der Schnittstelle zwischen Oberflächenwasser und Grundwasser sowie eine einfache Unsicherheitsbetrachtung aufgrund der zugrunde liegenden Parameterunsicherheiten. Der zweite Schwerpunkt der Arbeit liegt auf der Anwendung der entwickelten Methoden und der Erstellung eines dreidimensionalen Simulationsmodelles entlang eines Flussabschnittes der Selke. Numerische Strömungs- und Stofftransportmodelle ermöglichen die gekoppelte Simulation von Fließprozessen im offenen Gerinne und im darunter liegenden porösen Medium. Die Parametrisierung des Modells erfolgte anhand empirischer Daten die im Untersuchungsgebiet detailliert erhoben wurden. Die Simulationsergebnisse zeigten zum einen gebietsspezifische Gegebenheiten auf, ermöglichten darüber hinaus jedoch auch die Beschreibung allgemeiner Muster und Zusammenhänge welche die Wasserfluss- und Wärmetransportprozesse an der Schnittstelle zwischen Oberflächenwasser und Grundwasser beeinflussen. So zeigten die Ergebnisse dieser Arbeit, dass maßgeblich die natürlich vorhandenen Flussbettstrukturen die Austauschraten und die Strömungsrichtung zwischen Oberflächenwasser und Grundwasser beeinflussen und somit den hyporheischen Austausch bestimmen. Wichtige Einflussfaktoren auf die untersuchten Austauschprozesse waren die Lage im Gerinne relativ zur Flussbettstruktur und der vorherrschende Wasserstand (Abfluss). Bedingt durch den Wasser- und Wärmeaustausch prägten sich im Untersuchungsgebiet Bereiche aus in denen die täglichen Temperaturschwingungen tief in das Sediment eindringen (Anstrombereich der Flussbettstrukturen), als auch Bereiche in denen relativ konstante Temperaturen, nahe der Grundwassertemperatur, vorherrschten. Die durchschnittliche Temperatur in der hyporheischen Zone wurde durch die saisonalen Temperaturschwankungen im Oberflächenwasser dominiert, wobei die Temperaturen entlang einzelner Fließpfade stark von der Verweilzeit des Oberflächen- oder Grundwassers im gesättigten Sediment und dem Temperaturgradienten zwischen Fluss und Grundwasser abhängig waren. Trotz der Komplexität dieser Zusammenhänge, ermöglichten die Simulationsergebnisse die Ableitung einer allgemeinen empirischen Beziehung zwischen den hyporheischen Verweilzeiten und Temperaturmustern. Sowohl die Verweilzeiten als auch die Temperatur im gesättigten Sediment haben einen entscheiden Einfluss auf biogeochemische Prozesse in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser und sind somit von besonderer Bedeutung für die Wasserqualität von Seen, Flüssen und aquatischen Ökosystemen. KW - surface water-groundwater interaction KW - Oberflächenwasser-Grundwasser Interaktion KW - hyporheic zone KW - hyporheische Zone KW - numerical modeling KW - numerische Modellierung KW - heat transport KW - Wärmetransport KW - temperature KW - Temperatur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404319 ER - TY - THES A1 - Murawski, Aline T1 - Trends in precipitation over Germany and the Rhine basin related to changes in weather patterns T1 - Zeitliche Veränderungen im Niederschlag über Deutschland und dem Rheineinzugsgebiet in Zusammenhang mit Wetterlagen N2 - Niederschlag als eine der wichtigsten meteorologischen Größen für Landwirtschaft, Wasserversorgung und menschliches Wohlbefinden hat schon immer erhöhte Aufmerksamkeit erfahren. Niederschlagsmangel kann verheerende Auswirkungen haben, wie z.B. Missernten und Wasserknappheit. Übermäßige Niederschläge andererseits bergen jedoch ebenfalls Gefahren in Form von Hochwasser oder Sturzfluten und wiederum Missernten. Daher wurde viel Arbeit in die Detektion von Niederschlagsänderungen und deren zugrundeliegende Prozesse gesteckt. Insbesondere angesichts von Klimawandel und unter Berücksichtigung des Zusammenhangs zwischen Temperatur und atmosphärischer Wasserhaltekapazität, ist großer Bedarf an Forschung zum Verständnis der Auswirkungen von Klimawandel auf Niederschlagsänderungen gegeben. Die vorliegende Arbeit hat das Ziel, vergangene Veränderungen in Niederschlag und anderen meteorologischen Variablen zu verstehen. Für verschiedene Zeiträume wurden Tendenzen gefunden und mit entsprechenden Veränderungen in der großskaligen atmosphärischen Zirkulation in Zusammenhang gebracht. Die Ergebnisse dieser Arbeit können als Grundlage für die Attributierung von Hochwasserveränderungen zu Klimawandel genutzt werden. Die Annahmen für die Maßstabsverkleinerung („Downscaling“) der Daten von großskaligen Zirkulationsmodellen auf die lokale Skala wurden hier getestet und verifziert. In einem ersten Schritt wurden Niederschlagsveränderungen in Deutschland analysiert. Dabei lag der Fokus nicht nur auf Niederschlagssummen, sondern auch auf Eigenschaften der statistischen Verteilung, Übergangswahrscheinlichkeiten als Maß für Trocken- und Niederschlagsperioden und Extremniederschlagsereignissen. Den räumlichen Fokus auf das Rheineinzugsgebiet, das größte Flusseinzugsgebiet Deutschlands und einer der Hauptwasserwege Europas, verlagernd, wurden nachgewiesene Veränderungen in Niederschlag und anderen meteorologischen Größen in Bezug zu einer „optimierten“ Wetterlagenklassifikation analysiert. Die Wetterlagenklassifikation wurde unter der Maßgabe entwickelt, die Varianz des lokalen Klimas bestmöglich zu erklären. Die letzte hier behandelte Frage dreht sich darum, ob die beobachteten Veränderungen im lokalen Klima eher Häufigkeitsänderungen der Wetterlagen zuzuordnen sind oder einer Veränderung der Wetterlagen selbst. Eine gebräuchliche Annahme für einen Downscaling-Ansatz mit Hilfe von Wetterlagen und einem stochastischen Wettergenerator ist, dass Klimawandel sich allein durch eine Veränderung der Häufigkeit von Wetterlagen ausdrückt, die Eigenschaften der Wetterlagen dabei jedoch konstant bleiben. Diese Annahme wurde überprüft und die Fähigkeit der neuesten Generation von Zirkulationsmodellen, diese Wetterlagen zu reproduzieren, getestet. Niederschlagsveränderungen in Deutschland im Zeitraum 1951–2006 lassen sich zusammenfassen als negativ im Sommer und positiv in allen anderen Jahreszeiten. Verschiedene Niederschlagscharakteristika bestätigen die Tendenz in den Niederschlagssummen: während mittlere und extreme Niederschlagstageswerte im Winter zugenommen haben, sind auch zusammenhängende Niederschlagsperioden länger geworden (ausgedrückt als eine gestiegene Wahrscheinlichkeit für einen Tag mit Niederschlag gefolgt von einem weiteren nassen Tag). Im Sommer wurde das Gegenteil beobachtet: gesunkene Niederschlagssummen, untermauert von verringerten Mittel- und Extremwerten und längeren Trockenperioden. Abseits dieser allgemeinen Zusammenfassung für das gesamte Gebiet Deutschlands, ist die räumliche Verteilung von Niederschlagsveränderungen deutlich heterogener. Vermehrter Niederschlag im Winter wurde hauptsächlich im Nordwesten und Südosten Deutschlands beobachtet, während im Frühling die stärksten Veränderungen im Westen und im Herbst im Süden aufgetreten sind. Das saisonale Bild wiederum löst sich für die zugehörigen Monate auf, z.B. setzt sich der Anstieg im Herbstniederschlag aus deutlich vermehrtem Niederschlag im Südwesten im Oktober und im Südosten im November zusammen. Diese Ergebnisse betonen die starken räumlichen Zusammenhänge der Niederschlagsänderungen. Der nächste Schritt hinsichtlich einer Zuordnung von Niederschlagsveränderungen zu Änderungen in großskaligen Zirkulationsmustern, war die Ableitung einer Wetterlagenklassifikation, die die betrachteten lokalen Klimavariablen hinreichend stratifizieren kann. Fokussierend auf Temperatur, Globalstrahlung und Luftfeuchte zusätzlich zu Niederschlag, wurde eine Klassifikation basierend auf Luftdruck, Temperatur und spezifischer Luftfeuchtigkeit als am besten geeignet erachtet, die Varianz der lokalen Variablen zu erklären. Eine vergleichsweise hohe Anzahl von 40 Wetterlagen wurde ausgewählt, die es erlaubt, typische Druckmuster durch die zusätzlich verwendete Temperaturinformation einzelnen Jahreszeiten zuzuordnen. Während die Fähigkeit, Varianz im Niederschlag zu erklären, relativ gering ist, ist diese deutlich besser für Globalstrahlung und natürlich Temperatur. Die meisten der aktuellen Zirkulationsmodelle des CMIP5-Ensembles sind in der Lage, die Wetterlagen hinsichtlich Häufigkeit, Saisonalität und Persistenz hinreichend gut zu reproduzieren. Schließlich wurden dieWetterlagen bezüglich Veränderungen in ihrer Häufigkeit, Saisonalität und Persistenz, sowie der Wetterlagen-spezifischen Niederschläge und Temperatur, untersucht. Um Unsicherheiten durch die Wahl eines bestimmten Analysezeitraums auszuschließen, wurden alle möglichen Zeiträume mit mindestens 31 Jahren im Zeitraum 1901–2010 untersucht. Dadurch konnte die Annahme eines konstanten Zusammenhangs zwischen Wetterlagen und lokalem Wetter gründlich überprüft werden. Es wurde herausgefunden, dass diese Annahme nur zum Teil haltbar ist. Während Veränderungen in der Temperatur hauptsächlich auf Veränderungen in der Wetterlagenhäufigkeit zurückzuführen sind, wurde für Niederschlag ein erheblicher Teil von Veränderungen innerhalb einzelner Wetterlagen gefunden. Das Ausmaß und sogar das Vorzeichen der Veränderungen hängt hochgradig vom untersuchten Zeitraum ab. Die Häufigkeit einiger Wetterlagen steht in direkter Beziehung zur langfristigen Variabilität großskaliger Zirkulationsmuster. Niederschlagsveränderungen variieren nicht nur räumlich, sondern auch zeitlich – Aussagen über Tendenzen sind nur in Bezug zum jeweils untersuchten Zeitraum gültig. Während ein Teil der Veränderungen auf Änderungen der großskaligen Zirkulation zurückzuführen ist, gibt es auch deutliche Veränderungen innerhalb einzelner Wetterlagen. Die Ergebnisse betonen die Notwendigkeit für einen sorgfältigen Nachweis von Veränderungen möglichst verschiedene Zeiträume zu untersuchen und mahnen zur Vorsicht bei der Anwendung von Downscaling-Ansätzen mit Hilfe von Wetterlagen, da diese die Auswirkungen von Klimaveränderungen durch das Vernachlässigen von Wetterlagen-internen Veränderungen falsch einschätzen könnten. N2 - Precipitation as the central meteorological feature for agriculture, water security, and human well-being amongst others, has gained special attention ever since. Lack of precipitation may have devastating effects such as crop failure and water scarcity. Abundance of precipitation, on the other hand, may as well result in hazardous events such as flooding and again crop failure. Thus, great effort has been spent on tracking changes in precipitation and relating them to underlying processes. Particularly in the face of global warming and given the link between temperature and atmospheric water holding capacity, research is needed to understand the effect of climate change on precipitation. The present work aims at understanding past changes in precipitation and other meteorological variables. Trends were detected for various time periods and related to associated changes in large-scale atmospheric circulation. The results derived in this thesis may be used as the foundation for attributing changes in floods to climate change. Assumptions needed for the downscaling of large-scale circulation model output to local climate stations are tested and verified here. In a first step, changes in precipitation over Germany were detected, focussing not only on precipitation totals, but also on properties of the statistical distribution, transition probabilities as a measure for wet/dry spells, and extreme precipitation events. Shifting the spatial focus to the Rhine catchment as one of the major water lifelines of Europe and the largest river basin in Germany, detected trends in precipitation and other meteorological variables were analysed in relation to states of an ``optimal'' weather pattern classification. The weather pattern classification was developed seeking the best skill in explaining the variance of local climate variables. The last question addressed whether observed changes in local climate variables are attributable to changes in the frequency of weather patterns or rather to changes within the patterns itself. A common assumption for a downscaling approach using weather patterns and a stochastic weather generator is that climate change is expressed only as a changed occurrence of patterns with the pattern properties remaining constant. This assumption was validated and the ability of the latest generation of general circulation models to reproduce the weather patterns was evaluated. % Paper 1 Precipitation changes in Germany in the period 1951-2006 can be summarised briefly as negative in summer and positive in all other seasons. Different precipitation characteristics confirm the trends in total precipitation: while winter mean and extreme precipitation have increased, wet spells tend to be longer as well (expressed as increased probability for a wet day followed by another wet day). For summer the opposite was observed: reduced total precipitation, supported by decreasing mean and extreme precipitation and reflected in an increasing length of dry spells. Apart from this general summary for the whole of Germany, the spatial distribution within the country is much more differentiated. Increases in winter precipitation are most pronounced in the north-west and south-east of Germany, while precipitation increases are highest in the west for spring and in the south for autumn. Decreasing summer precipitation was observed in most regions of Germany, with particular focus on the south and west. The seasonal picture, however, was again differently represented in the contributing months, e.g.\ increasing autumn precipitation in the south of Germany is formed by strong trends in the south-west in October and in the south-east in November. These results emphasise the high spatial and temporal organisation of precipitation changes. % Paper 2 The next step towards attributing precipitation trends to changes in large-scale atmospheric patterns was the derivation of a weather pattern classification that sufficiently stratifies the local climate variables under investigation. Focussing on temperature, radiation, and humidity in addition to precipitation, a classification based on mean sea level pressure, near-surface temperature, and specific humidity was found to have the best skill in explaining the variance of the local variables. A rather high number of 40 patterns was selected, allowing typical pressure patterns being assigned to specific seasons by the associated temperature patterns. While the skill in explaining precipitation variance is rather low, better skill was achieved for radiation and, of course, temperature. Most of the recent GCMs from the CMIP5 ensemble were found to reproduce these weather patterns sufficiently well in terms of frequency, seasonality, and persistence. % Paper 3 Finally, the weather patterns were analysed for trends in pattern frequency, seasonality, persistence, and trends in pattern-specific precipitation and temperature. To overcome uncertainties in trend detection resulting from the selected time period, all possible periods in 1901-2010 with a minimum length of 31 years were considered. Thus, the assumption of a constant link between patterns and local weather was tested rigorously. This assumption was found to hold true only partly. While changes in temperature are mainly attributable to changes in pattern frequency, for precipitation a substantial amount of change was detected within individual patterns. Magnitude and even sign of trends depend highly on the selected time period. The frequency of certain patterns is related to the long-term variability of large-scale circulation modes. Changes in precipitation were found to be heterogeneous not only in space, but also in time - statements on trends are only valid for the specific time period under investigation. While some part of the trends can be attributed to changes in the large-scale circulation, distinct changes were found within single weather patterns as well. The results emphasise the need to analyse multiple periods for thorough trend detection wherever possible and add some note of caution to the application of downscaling approaches based on weather patterns, as they might misinterpret the effect of climate change due to neglecting within-type trends. KW - precipitation KW - weather pattern KW - trend analyses KW - Niederschlag KW - Wetterlagen KW - Trendanalysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412725 ER - TY - THES A1 - Muriu, Abraham Rugo T1 - Performance management in Kenya's public service T1 - Leistungsmanagement in Kenias öffentlichem Dienst BT - a study on performance information use BT - eine Studie über Leistungsinformationen N2 - This study was inspired by the desire to contribute to literature on performance management from the context of a developing country. The guiding research questions were: How do managers use performance information in decision making? Why do managers use performance information the way they do? The study was based on theoretical strands of neo-patrimonialism and new institutionalism. The nature of the inquiry informed the choice of a qualitative case study research design. Data was assembled through face-to-face interviews, some observations, and collection of documents from managers at the levels of the directorate, division, and section/units. The managers who were the focus of this study are current or former staff members of the state departments in Kenya’s national Ministry of Agriculture, Livestock, and Fisheries as well as from departments responsible for coordination of performance related reforms. The findings of this study show that performance information is regularly produced but its use by managers varies. Examples of use include preparing reports to external bodies, making decisions for resource re-allocation, making recommendations for rewards and sanctions, and policy advisory. On categorizing the forms of use as passive, purposeful, political or perverse, evidence shows that they overlap and that some of the forms are so closely related that it is difficult to separate them empirically. On what can explain the forms of use established, four factors namely; political will and leadership; organizational capacity; administrative culture; and managers’ interests and attitudes, were investigated. While acknowledging the interrelatedness and even overlapping of the factors, the study demonstrates that there is explanatory power to each though with varying depth and scope. The study thus concludes that: Inconsistent political will and leadership for performance management reforms explain forms of use that are passive, political and perverse. Low organizational capacity could best explain passive and some limited aspects of purposeful use. Informal, personal and competitive administrative culture is associated with purposeful use and mostly with political and perverse use. Limited interest and apprehensive attitude are best associated with passive use. The study contributes to the literature particularly in how institutions in a context of neo-patrimonialism shape performance information use. It recommends that further research is necessary to establish how neo-patrimonialism positively affects performance oriented reforms. This is interesting in particular given the emerging thinking on pockets of effectiveness and developmental patrimonialism. This is important since it is expected that performance related reforms will continue to be advocated in developing countries in the foreseeable future. N2 - Diese Studie wurde von dem Wunsch inspiriert einen Beitrag zu der Performance Management Literatur zu leisten und zwar aus dem Kontext eines Entwicklungslandes. Die Fragen, die diese Forschung geleitet haben waren: Wie nutzen Manager Performance Information in der Entscheidungsfindung? Warum nutzen Manager Performance Informationen auf eine bestimmte Weise? Die Studie basiert auf theoretischen Strömungen des Neo-Patrimonialismus und des Neo-Institutionalismus. Die Art der Untersuchung und Fragestellung verlangten nach einem qualitativen Forschungsdesign und einer Fallstudie. Die Datenerhebung stützte sich auf Interviews, Beobachtungen und Dokumente von 50 Managern auf Direktoratsebene, Abteilungsebene und Referatsebene. Die Manager, die im Fokus dieser Untersuchung standen, sind derzeitige und ehemalige Mitarbeiter in Kenias Ministerium für Landwirtschaft, Viehzucht und Fischerei, sowie der Abteilung zuständig für die Koordination von Performancebezogenen Reformen. Die Ergebnisse dieser Studie zeigen, dass Performanceinformationen regelmäßig produziert, jedoch unterschiedlich genutzt werden. Die Erstellung von Berichten für externe Stellen, Entscheidungen zur Ressourcenverteilung, Empfehlungen für Belohnungen und Sanktionen, sowie für Richtlinien sind Beispiele für die Nutzung von Performanceinformationen. Eine Kategorisierung dieser Nutzungsarten in passiv, intendiert, politisch oder pervertiert, zeigt dass diese überlappen und zum Teil so sehr miteinander verbunden sind, dass sie nur sehr schwer empirisch zu trennen sind. Hinsichtlich der Einflussfaktoren auf die Nutzung hat diese Studie vier Faktoren untersucht: Politischer Wille und Führungsverhalten; Kapazität der Organisation; administrative Kultur; Interessen und Einstellungen der Führungskräfte. Obwohl diese Faktoren zusammenhängen und sogar überlappen zeigt diese Studie, dass jeder einzelne Faktor Erklärungskraft besitzt, wenn auch zu unterschiedlichem Grad. Aus dieser Studie lässt sich folgern, dass inkonsistenter politischer Wille und Führungsverhalten in Bezug auf Reformen des Performance Managements passive, politische und pervertierte Formen der Nutzung erklären. Niedrige Kapazität der Organisation erklärt passive Nutzung sowie Teilaspekte von intendierter Nutzung. Eine informale, persönliche und kompetitive Administrationskultur ist verknüpft mit intendierter Nutzung, hauptsächlich aber mit politischer und pervertierter Nutzung. Eingeschränktes Interesse und ablehnende Einstellung wird mit passiver Nutzung in Verbindung gebracht. Diese Studie trägt zu Literatur bei, die sich damit befasst, inwieweit Institutionen in einem von Neo-Patrimonialismus geprägten Kontext die Nutzung von Performanceinformation beeinflusst. Weitere Forschung ist notwendig, um zu untersuchen wie Neo-Patrimonialismus performanceorientierte Reformen positiv beeinflusst. Dies ist besonders in Anbetracht von Nischen der Effektivität und Entwicklungspatrimonialismus bedeutsam. Dies ist besonders relevant, da davon ausgegangen werden kann, dass Performance-bezogene Reformen auch in Zukunft weiter in Entwicklungsländern verbreitet werden. KW - performance management KW - performance information use KW - Kenya public service KW - Leistungsmanagement KW - Leistungsinformationen verwenden KW - Kenias öffentlicher Dienst Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403281 ER - TY - THES A1 - Muzdalo, Anja T1 - Thermal cis-trans isomerization of azobenzene studied by path sampling and QM/MM stochastic dynamics T1 - Untersuchung der thermisch aktivierten cis-trans Isomerisierung ausgewählter Azobenzole mit Hilfe von Transition Path Sampling und QM/MM-Molekulardynamik N2 - Azobenzene-based molecular photoswitches have extensively been applied to biological systems, involving photo-control of peptides, lipids and nucleic acids. The isomerization between the stable trans and the metastable cis state of the azo moieties leads to pronounced changes in shape and other physico-chemical properties of the molecules into which they are incorporated. Fast switching can be induced via transitions to excited electronic states and fine-tuned by a large number of different substituents at the phenyl rings. But a rational design of tailor-made azo groups also requires control of their stability in the dark, the half-lifetime of the cis isomer. In computational chemistry, thermally activated barrier crossing on the ground state Born-Oppenheimer surface can efficiently be estimated with Eyring’s transition state theory (TST) approach; the growing complexity of the azo moiety and a rather heterogeneous environment, however, may render some of the underlying simplifying assumptions problematic. In this dissertation, a computational approach is established to remove two restrictions at once: the environment is modeled explicitly by employing a quantum mechanical/molecular mechanics (QM/MM) description; and the isomerization process is tracked by analyzing complete dynamical pathways between stable states. The suitability of this description is validated by using two test systems, pure azo benzene and a derivative with electron donating and electron withdrawing substituents (“push-pull” azobenzene). Each system is studied in the gas phase, in toluene and in polar DMSO solvent. The azo molecules are treated at the QM level using a very recent, semi-empirical approximation to density functional theory (density functional tight binding approximation). Reactive pathways are sampled by implementing a version of the so-called transition path sampling method (TPS), without introducing any bias into the system dynamics. By analyzing ensembles of reactive trajectories, the change in isomerization pathway from linear inversion to rotation in going from apolar to polar solvent, predicted by the TST approach, could be verified for the push-pull derivative. At the same time, the mere presence of explicit solvation is seen to broaden the distribution of isomerization pathways, an effect TST cannot account for. Using likelihood maximization based on the TPS shooting history, an improved reaction coordinate was identified as a sine-cosine combination of the central bend angles and the rotation dihedral, r (ω,α,α′). The computational van’t Hoff analysis for the activation entropies was performed to gain further insight into the differential role of solvent for the case of the unsubstituted and the push-pull azobenzene. In agreement with the experiment, it yielded positive activation entropies for azobenzene in the DMSO solvent while negative for the push-pull derivative, reflecting the induced ordering of solvent around the more dipolar transition state associated to the latter compound. Also, the dynamically corrected rate constants were evaluated using the reactive flux approach where an increase comparable to the experimental one was observed for a high polarity medium for both azobenzene derivatives. N2 - Azobenzol-basierte molekulare Photoswitches wurden weitgehend auf biologische Systeme angewendet, die eine Photo-Kontrolle von Peptiden, Lipiden und Nukleinsäuren beinhalten. Die Isomerisierung zwischen dem stabilen trans und dem metastabilen cis-Zustand der Azogruppen führt zu ausgeprägten Form- und anderen physikalisch-chemischen Eigenschaften der Moleküle, in die sie eingebaut sind. Die schnelle Umschaltung kann über Übergänge in angeregte elektronische Zustände induziert und durch eine Vielzahl unterschiedlicher Substituenten an den Phenylringen fein abgestimmt werden. Aber ein rationales Design von maßgeschneiderten Azo-Gruppen erfordert auch die Kontrolle über ihre Stabilität im Dunkeln, die Halbwertszeit des cis-Isomers. In der Rechenchemie kann die thermisch aktivierte Barriereüberquerung auf dem Grundzustand Born-Oppenheimer-Oberfläche mit dem EST-Übergangstheorie-Theorie (TST) effizient geschätzt werden; Die zunehmende Komplexität der Azo-Einheit und eine ziemlich heterogene Umgebung kann jedoch einige der zugrunde liegenden vereinfachenden Annahmen problematisch machen. In dieser Dissertation wird ein rechnerischer Ansatz etabliert, um zwei Einschränkungen gleichzeitig zu beseitigen: Die Umgebung wird explizit modelliert, indem man eine quantenmechanische / molekulare Mechanik (QM / MM) Beschreibung verwendet; Und der Isomerisierungsprozess wird durch die Analyse vollständiger dynamischer Wege zwischen stabilen Zuständen verfolgt. Die Eignung dieser Beschreibung wird durch die Verwendung von zwei Testsystemen, reinem Azolbenzol und einem Derivat mit elektronenabgebenden und elektronenziehenden Substituenten ("Push-Pull" -Azobenzol) validiert. Jedes System wird in der Gasphase, in Toluol und im polaren DMSO-Lösungsmittel untersucht. Die Azomoleküle werden auf QM-Ebene unter Verwendung einer sehr jüngsten, halb-empirischen Approximation zur Dichtefunktionaltheorie (Dichtefunktionelle enge Bindungsnäherung) behandelt. Die reaktiven Wege werden durch die Implementierung einer Version des sogenannten Übergangsweg-Abtastverfahrens (TPS) abgetastet, ohne dass eine Vorspannung in die Systemdynamik eingeführt wird. Durch die Analyse von Ensembles von reaktiven Trajektorien konnte die Änderung des Isomerisierungsweges von der linearen Inversion zur Rotation, die von einem polaren zu einem polaren Lösungsmittel, das durch den TST-Ansatz vorhergesagt wurde, für das Push-Pull-Derivat verifiziert werden. Gleichzeitig wird die bloße Anwesenheit der expliziten Solvatisierung gesehen, um die Verteilung der Isomerisierungswege zu erweitern, ein Effekt, den TST nicht berücksichtigen kann. Unter Verwendung der Wahrscheinlichkeitsmaximierung auf der Grundlage der TPS-Schießhistorie wurde eine verbesserte Reaktionskoordinate als eine Sinus-Kosinus-Kombination der zentralen Biegewinkel und der Rotationsdichte identifiziert. Die rechnerische van't Hoff-Analyse für die Aktivierungsentropien wurde durchgeführt, um einen weiteren Einblick in die differentielle Rolle des Lösungsmittels für den Fall des unsubstituierten und des Push-Pull-Azobenzols zu erhalten. In Übereinstimmung mit dem Experiment lieferte es positive Aktivierungsentropien für Azobenzol in dem DMSO-Lösungsmittel, während es für das Push-Pull-Derivat negativ war, was die induzierte Anordnung des Lösungsmittels um den mehr dipolaren Übergangszustand, der mit der letzteren Verbindung assoziiert ist, widerspiegelt. Außerdem wurden die dynamisch korrigierten Geschwindigkeitskonstanten unter Verwendung des reaktiven Flussansatzes ausgewertet, bei dem ein für das Experimentiermittel vergleichbarer Anstieg für ein hochpolares Medium für beide Azobenzolderivate beobachtet wurde. KW - transition path sampling KW - thermal isomerization of azobenzene KW - QM/MM stochastic dynamics KW - reactive flux rate constants KW - activation entropy KW - solvent effect KW - thermisch angeregte Isomerisierung von Azobenzolen KW - QM/MM Molekulardynamik KW - DFTB3 KW - Aktivierungsentropie KW - "Reactive Flux" Ratenkonstanten KW - Reaktionsmechanismen KW - Lösungsmitteleffekte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405814 ER - TY - THES A1 - Mücke, Nicole T1 - Direct and inverse problems in machine learning T1 - Direkte und inverse Probleme im maschinellen Lernen BT - kernel methods and spectral regularization BT - Kern Methoden und spektrale Regularisierung N2 - We analyze an inverse noisy regression model under random design with the aim of estimating the unknown target function based on a given set of data, drawn according to some unknown probability distribution. Our estimators are all constructed by kernel methods, which depend on a Reproducing Kernel Hilbert Space structure using spectral regularization methods. A first main result establishes upper and lower bounds for the rate of convergence under a given source condition assumption, restricting the class of admissible distributions. But since kernel methods scale poorly when massive datasets are involved, we study one example for saving computation time and memory requirements in more detail. We show that Parallelizing spectral algorithms also leads to minimax optimal rates of convergence provided the number of machines is chosen appropriately. We emphasize that so far all estimators depend on the assumed a-priori smoothness of the target function and on the eigenvalue decay of the kernel covariance operator, which are in general unknown. To obtain good purely data driven estimators constitutes the problem of adaptivity which we handle for the single machine problem via a version of the Lepskii principle. N2 - In dieser Arbeit analysieren wir ein zufälliges und verrauschtes inverses Regressionsmodell im random design. Wir konstruiueren aus gegebenen Daten eine Schätzung der unbekannten Funktion, von der wir annehmen, dass sie in einem Hilbertraum mit reproduzierendem Kern liegt. Ein erstes Hauptergebnis dieser Arbeit betrifft obere Schranken an die Konvergenzraten. Wir legen sog. source conditions fest, definiert über geeignete Kugeln im Wertebereich von (reellen) Potenzen des normierten Kern-Kovarianzoperators. Das führt zu einer Einschränkung der Klasse der Verteilungen in einem statistischen Modell, in dem die spektrale Asymptotik des von der Randverteilung abhängigen Kovarianzoperators eingeschränkt wird. In diesem Kontext zeigen wir obere und entsprechende untere Schranken für die Konvergenzraten für eine sehr allgemeine Klasse spektraler Regularisierungsmethoden und etablieren damit die sog. Minimax-Optimalität dieser Raten. Da selbst bei optimalen Konvergenzraten Kernmethoden, angewandt auf große Datenmengen, noch unbefriedigend viel Zeit verschlingen und hohen Speicherbedarf aufweisen, untersuchen wir einen Zugang zur Zeitersparnis und zur Reduktion des Speicherbedarfs detaillierter. Wir studieren das sog. distributed learning und beweisen für unsere Klasse allgemeiner spektraler Regularisierungen ein neues Resultat, allerdings immer noch unter der Annahme einer bekannten a priori Regularität der Zielfunktion, ausgedrückt durch die Fixierung einer source condition. Das große Problem bei der Behandlung realer Daten ist das der Adaptivität, d.h. die Angabe eines Verfahrens, das ohne eine solche a priori Voraussetzung einen in einem gewissen Sinn optimalen Schätzer aus den Daten konstruiert. Das behandeln wir vermöge einer Variante des Balancing principle. KW - inverse problems KW - kernel methods KW - minimax optimality KW - inverse Probleme KW - Kern Methoden KW - Minimax Optimalität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403479 ER - TY - THES A1 - Mühlenhoff, Judith T1 - Culture-driven innovation BT - acknowledging culture as a knowledge source for innovation N2 - This cumulative dissertation deals with the potential of underexplored cultural sources for innovation. Nowadays, firms recognize an increasing demand for innovation to keep pace with an ever-growing dynamic worldwide competition. Knowledge is one of the most crucial sources and resource, while until now innovation has been foremost driven by technology. But since the last years, we have been witnessing a change from technology's role as a driver of innovation to an enabler of innovation. Innovative products and services increasingly differentiate through emotional qualities and user experience. These experiences are hard to grasp and require alignment in innovation management theory and practice. This work cares about culture in a broader matter as a source for innovation. It investigates the requirements and fundamentals for "culture-driven innovation" by studying where and how to unlock cultural sources. The research questions are the following: What are cultural sources for knowledge and innovation? Where can one find cultural sources and how to tap into them? The dissertation starts with an overview of its central terms and introduces cultural theories as an overarching frame to study cultural sources for innovation systematically. Here, knowledge is not understood as something an organization owns like a material resource, but it is seen as something created and taking place in practices. Such a practice theoretical lens inheres the rejection of the traditional economic depiction of the rational Homo Oeconomicus. Nevertheless, it also rejects the idea of the Homo Sociologicus about the strong impact of society and its values on individual actions. Practice theory approaches take account of both concepts by underscoring the dualism of individual (agency, micro-level) and structure (society, macro-level). Following this, organizations are no enclosed entities but embedded within their socio-cultural environment, which shapes them and is also shaped by them. Then, the first article of this dissertation acknowledges a methodological stance of this dualism by discussing how mixed methods support an integrated approach to study the micro- and macro-level. The article focuses on networks (thus communities) as a central research unit within studies of entrepreneurship and innovation. The second article contains a network analysis and depicts communities as central loci for cultural sources and knowledge. With data from the platform Meetup.com about events etc., the study explores which overarching communities and themes have been evolved in Berlin's start up and tech scene. While the latter study was about where to find new cultural sources, the last article addresses how to unlock such knowledge sources. It develops the concept of a cultural absorptive capacity, that is the capability of organizations to open up towards cultural sources. Furthermore, the article points to the role of knowledge intermediaries in the early phases of knowledge acquisition. Two case studies on companies working with artists illustrate the roles of such intermediaries and how they support firms to gain knowledge from cultural sources. Overall, this dissertation contributes to a better understanding of culture as a source for innovation from a theoretical, methodological, and practitioners' point of view. It provides basic research to unlock the potential of such new knowledge sources for companies - sources that so far have been neglected in innovation management. N2 - Diese kumulative Dissertation beschäftigt sich mit dem Potenzial von bisher wenig untersuchten kulturellen Quellen für Innovation. Firmen erleben heutzutage einen ansteigenden Bedarf nach Innovationen um in einer immer dynamisch werdenden Welt im Wettbewerb nicht zurückzufallen. Wissen gehört hierbei zu einer der zentralen Quelle und Ressource, wobei das Wissen um Innovationen bisher meistens stark durch den Einfluss von Technik geprägt wurde. Jedoch können wir in den letzten Jahren vermehrt beobachten, wie Technik als Treiber von Innovationen zurückgeht und eher die Rolle eines Gehilfen übernimmt. Innovative Produkte und Services differenzieren sich zunehmend über emotionale und über Erfahrungsqualitäten. Diese Nutzungserfahrungen sind schwer zu fassen und erfordern Anpassungen im bisherigen Management von Innovationen. Die vorliegende Arbeit beschäftigt sich mit Kultur im weitest gehenden Sinne als Quelle für Innovationen. Sie behandelt die Voraussetzungen und Grundlagen für "Culture-Driven Innovation" indem darauf eingegangen wird wo und wie kulturelle Quellen erschlossen werden können. Die Forschungsfragen lauten: Was sind kulturelle Quellen für Wissen und Innovation? Wo kann man diese Quellen finden und wie sie sich erschließen? Dafür beginnt die Arbeit mit einem Überblick zu den wesentlichen Begriffen des Promotionsthemas und führt Kulturtheorien als übergreifende Klammer ein, von denen kulturelle Quellen für Innovationen systematisch betrachtet werden können. Wissen wird hierbei nicht als etwas gesehen, das eine Organisation besitzen kann wie eine materielle Ressource, sondern als etwas, das erst in Praktiken erlebbar und geniert wird. Solch einer praxistheoretischen Sichtweise innewohnend ist die Ablehnung klassischer wirtschaftswissenschaftlicher Vorstellungen eines rational agierenden Homo Oeconomicus. Auf der anderen Seite lehnt sie aber auch die Idee eines Homo Sociologicus ab, in dem das Handeln des Einzelnen hauptsächlich von der Gesellschaft und ihren Werten geprägt wird. Praxistheoretische Ansätze positionieren sich dazwischen indem sie den Dualismus von Individuum (Akteur, Mikro-Ebene) und Struktur (Gesellschaft, Makro-Ebene) betont. Organisationen sind demnach keine in sich geschlossene Einheiten, sondern eingebettet in ihre sozio-kulturelle Umwelt, die sie prägt und die sie gleichzeitig wiederum mitprägen. Im Folgenden widmet sich der erste Artikel einer methodischen Betrachtung dieses Dualismus' indem erörtert wird, wie Mixed Methods helfen Mikro-Ebene und Makro-Ebene integriert erforschen zu können. Dabei konzentriert sich der Artikel auf Netzwerke (und somit auch Communities) als zentrale Untersuchungseinheit von Entrepreneurship- und Innovationsforschung. Der zweite Artikel der Dissertation beinhaltet eine Netzwerkanalyse und widmet sich Communities als zentralen Ort für kulturelle Quellen und Wissen. An Hand der Daten der Plattform Meetup.com zu Veranstaltungen etc., untersucht die Studie welche übergreifenden Communities und welche Themen sich in Berlin's Start Up- und Tech-Szene gebildet haben. Nachdem dieser Beitrag sich der Frage widmet wo neue kulturelle Wissensquellen entdeckt werden können, geht der letzte Beitrag der vorliegenden Doktorarbeit der Frage nach, wie solches Wissen erschlossen werden kann. In dem Artikel wird die Idee einer Cultural Absorptive Capacity entwickelt, also der Fähigkeit von Organisationen sich gegenüber kulturellen Quellen zu öffnen, und die Rolle von Wissensvermittlern in der frühen Phase von Wissenserschließung betont. In zwei Fallstudien über Firmen, die mit Künstlern zusammenarbeiten, wird aufgezeigt, welche Rollen solche Vermittler übernehmen können und wie sie Unternehmen dabei helfen, Wissen aus kulturellen Quellen zu nutzen. Insgesamt trägt diese Dissertation zu einem besseren Verständnis von Kultur als Quelle für Innovationen auf theoretischer, methodischer und praktischer Ebene bei. Sie leistet damit Grundlagenarbeit um das Potenzial solcher neuen Wissensquellen für Unternehmen zu erschließen da diese bisher im Innovationsmanagement vernachlässigt wurden. KW - innovation management KW - Innovationsmanagement KW - culture KW - Kultur KW - intermediaries KW - knowledge KW - Wissen KW - networks KW - Netzwerke KW - mixed methods KW - communities KW - entrepreneurship KW - absorptive capacity Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104626 ER - TY - THES A1 - Müller, Eduard Rudolf T1 - Architektur und Kunst im lyrischen Werk Johannes Bobrowskis T1 - Architecture and art in the lyric poetry of Johannes Bobrowski N2 - Bobrowski had expressed the intention to study art history after graduation, but war and captivity thwarted his plans: As a member of the German Armed Forces, he was only released from military service for a semester in winter 1941/1942. Bobrowski was particularly impressed by the lectures on German Art in the Age of Goethe by the departmental chair Wilhelm Pinder. However, despite this fundamental influence Pinder’s ideological background never become manifest in Bobrowski’s poems. After returning from Soviet captivity during Christmas 1949, university studies were out of the question for the thirty-two-year-old. However, his lifelong intermedial engagement with fine art in his work can be interpreted as an expression of his diverse cultural and historical interests and inclinations. The poet’s life phases correlate with the thematic development of his poems on visual art: The inviolable aesthetics of significant works of art helped him to overcome the horror of the last years of the war and the privations of Soviet captivity. Didactic moral aims initially shaped the poems Bobrowski created in the years after his return home before he was able to distance himself in terms of content and form from this type of poetry and began to write poems that take up cultural-historical aspects and juxtapose historical, mythological, biblical and religious-philosophical themes spanning epochs. His poems about the artists Jawlensky and Calder also touch simultaneously on aspects of the cultural landscape. In the last decade of his life, Bobrowski became increasingly interested in twentieth-century art, while modern architecture was absent from his work. Bobrowski devoted himself in an entire series of poems to Classicist and Romanticist painting and thus to works that were written during the Age of Goethe and about which Wilhelm Pinder may have given lectures during his “German Art in the Age of Goethe” course attended by Bobrowski. Architecture is a leitmotif in Bobrowski’s lyrical works. The significance conveyed of the particular sacred and profane buildings referred to in the poems as well as the urban and village ensembles and individual parts of buildings changes several times over the years. Starting from traditional, juxtaposed juvenile poems in iambic versification, in which architectural elements form part of an awareness that fades out everything outside of the aesthetic, the significance of the sacred and secular buildings in Bobrowski’s lyrical works changes for the first time during the years he spent in Russia during the war as part of the German military. In the odes Bobrowski wrote at the time, the architectural relics testify to suffering, death and destruction. What is still absent, however, is the central idea of guilt, which later becomes the focus of poems he writes after his return from captivity until his early death. Towards the end of the war and during his years of captivity, Bobrowski reflects on the theme of his homeland again, and the architecture in his poems becomes an aesthetically charged projection for his yearning for East Prussia and the Memel area. The aspect of the sublime first appears in his poems, both in relation to painting and architecture, during his captivity. This idea is developed on the one hand after his return to Berlin in his poems on the architecture of Gothic cathedrals and the architectural heritage of Classicism, but the cultural heritage of Europe also represents historical injustice and a heavy, far-reaching guilt in the poems written during this period. Bobrowski turns away from his criticism of the entire continent of Europe in later years and in his “Sarmatic Divan” concentrates on the guilt Germans have towards the peoples of Eastern Europe. This also lends the architecture in his poems a new meaning. The relics of the castles of the Teutonic Order testify to the rule of medieval conquerors and merge with nature: The symbolism of the architecture becomes part of the landscape. In the last decade of his life, he increasingly writes poems related to parks and urban green spaces. The city, “filled with meaning”, moves to the centre of his poetry. However he does not deal with the technical achievements and social phenomena of urban life in these poems but with urban structures and especially the green and open spaces as symbols of history. The poet relies not only on personal experiences, but sometimes also on image sources without ever having seen the original. The poems about Chagall and Gauguin are hardly accessible without the knowledge that they refer to image reproductions in narrow, popular books that Bobrowski acquired shortly before writing the respective poems. The situation is different with the Russian churches that find their way into his lyrical works. Bobrowski had seen them all during the war, and most of them still appear to exist today and can be identified with some certainty with the help in part of the poet's letters from that period. N2 - Bobrowski hatte nach dem Abitur die Absicht geäußert, Kunstgeschichte zu studieren, doch Krieg und Kriegsgefangenschaft vereitelten seinen Plan: Der Wehrmachtsangehörige wurde einzig im Winter 1941/1942 für ein Studiensemester an der Universität Berlin vom Kriegsdienst freigestellt. Nachhaltig beeindruckt war Bobrowski insbesondere von der Vorlesung „Deutsche Kunst der Goethezeit“ des Lehrstuhlinhabers Wilhelm Pinder. Trotz eines grundlegenden Einflusses ist indessen zu keinem Zeitpunkt Pinders ideologischer Hintergrund in Bobrowskis Gedichten manifest geworden. Nach der Rückkehr aus sowjetischer Gefangenschaft an Weihnachten 1949 war für den mittlerweile Zweiunddreißigjährigen an ein Studium nicht mehr zu denken. Die lebenslange intermediale Auseinandersetzung mit Werken der bildenden Kunst in seinem Œuvre kann indessen als Ausdruck seiner vielfältigen kulturgeschichtlichen Interessen und Neigungen interpretiert werden. Die Lebensphasen des Dichters korrelieren mit einer motivischen Entwicklung seiner Bildgedichte: Insbesondere half ihm die unantastbare Ästhetik bedeutender Kunstwerke, das Grauen der letzten Kriegsjahre und die Entbehrungen in sowjetischer Kriegsgefangenschaft zu überwinden. Didaktisch-moralische Zielsetzungen prägten zunächst die in den Jahren nach seiner Heimkehr entstandenen Gedichte, bevor sich Bobrowski inhaltlich und formal von diesem Gedichttypus zu lösen vermochte und vermehrt Gedichte zu schreiben begann, die kulturgeschichtliche Dimensionen annahmen und historische, mythologische, biblische und religionsphilosophische Themen in epochenübergreifende Zusammenhänge stellten. Die Gedichte über die Künstler Jawlensky und Calder berühren gleichzeitig kulturlandschaftliche Aspekte. Im letzten Lebensjahrzehnt interessierte sich Bobrowski zunehmend für die Kunst des 20. Jahrhunderts, während die moderne Architektur aus seinem Werk ausgeklammert blieb. Architektur bildet eine Leitmotivik in Bobrowskis lyrischem Werk. Die übertragene Bedeutungsebene der in den Gedichten benannten sakralen und profanen Einzelbauten, aber auch der städtischen und dörflichen Ensembles sowie einzelner Gebäudeteile, verändert sich mehrfach im Laufe der Jahre. Ausgehend von traditionellen, paargereimten Jugendgedichten in jambischem Versmaß, in denen architektonische Elemente Teil einer Wahrnehmung bilden, die alles Außerästhetische ausblendet, wandelt sich der Sinngehalt der Sakral- und Profanbauten in Bobrowskis lyrischem Werk ein erstes Mal während den Kriegsjahren in Russland, die der Wehrmachtsangehörige am Ilmensee verbracht hat. In den damals entstandenen Oden zeugen die architektonischen Relikte von Leid, Tod und Zerstörung. Noch fehlt indessen der später so zentrale Gedanke der Schuld, der erst im Rückblick auf jene Zeit in den Gedichten, die nach der Rückkehr aus der Kriegsgefangenschaft bis zu Bobrowskis frühem Tod entstanden sind, thematisiert worden ist. Gegen Ende des Kriegs und in den Jahren der Kriegsgefangenschaft besinnt sich Bobrowski erneut auf Heimatthemen, und die Architektur in seinen Gedichten wird zu einem ästhetisch überhöhten Fluchtpunkt seiner Sehnsucht nach Ostpreußen und dem Memelgebiet. In Kriegsgefangenschaft tritt erstmals der Aspekt des Sublimen in seinen Gedichten auf, und zwar sowohl bezogen auf die Malerei als auch auf die Architektur. Dieser Gedanke wird einerseits nach der Rückkehr nach Berlin in den Gedichten über die Architektur gotischer Kathedralen und das bauliche Erbe des Klassizismus weitergesponnen, doch steht in den damals entstandenen Gedichten das Kulturerbe Europas auch für historisches Unrecht und eine schwere, weit zurückreichende Schuld. Von dieser auf den ganzen Kontinent bezogenen Kritik wendet sich Bobrowski in den nachfolgenden Jahren ab und konzentriert sich auf die Schuld der Deutschen gegenüber den Völkern Osteuropas. Damit erhält auch die Architektur in seinen Gedichten eine neue Bedeutung. Die Relikte der Ritterburgen des deutschen Ordens zeugen von der Herrschaft der mittelalterlichen Eroberer und verschmelzen dabei mit der Natur: Das Zeichenhafte der Architektur wird Teil der Landschaft. Im letzten Lebensjahrzehnt entstehen vermehrt Gedichte, die sich auf Parkanlagen und städtische Grünräume beziehen. Der Dichter hat sich nicht nur auf persönliche Erfahrungen, sondern mitunter auch auf Bildquellen abstützt, ohne dass er das Original je gesehen hätte. Nur schwer zugänglich sind die Gedichte über Chagall und Gauguin ohne die Erkenntnis, dass sie sich auf Bildvorlagen in schmalen, populärwissenschaftlichen Büchern beziehen, die Bobrowski jeweils kurz vor der Niederschrift der entsprechenden Gedichte erworben hat. Anders verhält es sich mit jenen russischen Kirchen, die Eingang in sein lyrisches Werk gefunden haben. Bobrowski hat sie alle selbst im Krieg gesehen, und die meisten scheinen noch heute zu bestehen und können mit einiger Sicherheit identifiziert werden, wozu auch die Briefe des Dichters aus jener Zeit beitragen. KW - Johannes Bobrwoski KW - Lyrik KW - Architektur und Kunst KW - Intermedialität KW - Johannes Bobrowski KW - lyric poetry KW - architecture and art KW - intermediality Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427113 SN - 978-3-86956-461-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Müller, Juliane T1 - Trunk loading and back pain T1 - Rumpfbelastungen und Rückenschmerzen BT - three-dimensional motion analysis and evaluation of neuromuscular reflex activity in response to sudden and continuous loading BT - dreidimensionale Bewegungsanalyse und Erfassung der neuromuskulären Aktivität des Rumpfes als Antwort auf plötzliche und kontinuierliche Belastungen N2 - An essential function of the trunk is the compensation of external forces and loads in order to guarantee stability. Stabilising the trunk during sudden, repetitive loading in everyday tasks, as well as during performance is important in order to protect against injury. Hence, reduced trunk stability is accepted as a risk factor for the development of back pain (BP). An altered activity pattern including extended response and activation times as well as increased co-contraction of the trunk muscles as well as a reduced range of motion and increased movement variability of the trunk are evident in back pain patients (BPP). These differences to healthy controls (H) have been evaluated primarily in quasi-static test situations involving isolated loading directly to the trunk. Nevertheless, transferability to everyday, dynamic situations is under debate. Therefore, the aim of this project is to analyse 3-dimensional motion and neuromuscular reflex activity of the trunk as response to dynamic trunk loading in healthy (H) and back pain patients (BPP). A measurement tool was developed to assess trunk stability, consisting of dynamic test situations. During these tests, loading of the trunk is generated by the upper and lower limbs with and without additional perturbation. Therefore, lifting of objects and stumbling while walking are adequate represents. With the help of a 12-lead EMG, neuromuscular activity of the muscles encompassing the trunk was assessed. In addition, three-dimensional trunk motion was analysed using a newly developed multi-segmental trunk model. The set-up was checked for reproducibility as well as validity. Afterwards, the defined measurement set-up was applied to assess trunk stability in comparisons of healthy and back pain patients. Clinically acceptable to excellent reliability could be shown for the methods (EMG/kinematics) used in the test situations. No changes in trunk motion pattern could be observed in healthy adults during continuous loading (lifting of objects) of different weights. In contrast, sudden loading of the trunk through perturbations to the lower limbs during walking led to an increased neuromuscular activity and ROM of the trunk. Moreover, BPP showed a delayed muscle response time and extended duration until maximum neuromuscular activity in response to sudden walking perturbations compared to healthy controls. In addition, a reduced lateral flexion of the trunk during perturbation could be shown in BPP. It is concluded that perturbed gait seems suitable to provoke higher demands on trunk stability in adults. The altered neuromuscular and kinematic compensation pattern in back pain patients (BPP) can be interpreted as increased spine loading and reduced trunk stability in patients. Therefore, this novel assessment of trunk stability is suitable to identify deficits in BPP. Assignment of affected BPP to therapy interventions with focus on stabilisation of the trunk aiming to improve neuromuscular control in dynamic situations is implied. Hence, sensorimotor training (SMT) to enhance trunk stability and compensation of unexpected sudden loading should be preferred. N2 - Eine ausgeprägte Rumpfstabilität gilt als vorteilhaft, um den Rumpf bei repetitiven und plötzlich auftretenden hohen Lasten sowohl in Alltagssituationen, am Arbeitsplatz als auch während Training- oder Wettkampfbelastungen im Sport zu stabilisieren und vor Beschwerden bzw. Verletzungen zu schützen. Eine reduzierte Rumpfstabilität wird daher als Risikofaktor für die Entwicklung von Rückenschmerzen angenommen. Eine veränderte Aktivität (verlängerte Reaktionszeit, verlängerte Aktivierungszeiten, erhöhte Ko-Kontraktion) der rumpfumgreifenden Muskulatur sowie ein reduziertes Bewegungsausmaß und eine erhöhte -variabilität des Rumpfes bei Rückenschmerzpatienten sind evident. Diese Unterschiede sind hauptsächlich in quasi-statischen Belastungssituationen mit isolierter Lasteinwirkung direkt am Rumpf nachgewiesen. Eine Übertragbarkeit auf alltagsnahe und dynamische Belastungssituationen ist jedoch kritisch zu hinterfragen. Ziel des Dissertationsprojektes ist die Entwicklung und Validierung eines Diagnostiktools zur Erhebung der Rumpfstabilität in dynamischen Belastungssituationen bei Gesunden und Rückenschmerzpatienten. Für die Erfassung der Rumpfstabilität wurde ein Mess-Verfahren bestehend aus dynamischen Belastungssituationen, in denen die Lasten über die Extremitäten generiert werden (Heben von Lasten, Perturbation im Gang), mit und ohne Perturbation entwickelt. Mit Hilfe eines 12-Kanal-EMGs wurde die neuromuskuläre Aktivität der rumpfumgreifenden Muskulatur erfasst. Zusätzlich wurde die 3-dimensonale Rumpfbewegung über ein neu entwickeltes multi-segmentales Rückenmodell analysiert. Dieses Methodensetup wurde auf Reproduzierbarkeit sowie Validität überprüft. Im Anschluss erfolgte eine Anwendung des definierten Diagnostiktools zur Erfassung der Rumpfstabilität im Vergleich von Probanden mit und ohne Rückenschmerzen. Eine klinisch akzeptable bis hervorragende Reliabilität konnte für die verwendeten Messvariablen (EMG/Kinematik) in den beschriebenen Belastungssituationen (Heben/Gang mit Perturbation) nachgewiesen werden. Gesunde Erwachsene zeigen bei einer kontinuierlichen Belastung des Rumpfes mit unterschiedlichen Gewichten (Heben von Lasten) keine Veränderung der Rumpfbewegung. Die plötzliche Belastung des Rumpfes durch Hinzunahme von Perturbationen der unteren Extremitäten im Gang konnte dagegen bei gesunden Probanden eine messbare Auslenkung des Rumpfes auf kinematischer als auch neuromuskulärer Ebene hervorrufen. Rückenschmerzpatienten zeigten ein verändertes neuromuskuläres und kinematisches Kompensationsmuster bei externen Perturbationen im Gang im Vergleich zu Gesunden. Dies ist charakterisiert durch eine verzögerte Reaktionszeit sowie verlängerte Dauer zum Erreichen der maximalen neuromuskulären Aktivität in Kombination mit einer reduzierten Lateralflexion des Rumpfes während Perturbation. Die gewählte Testsituation - Perturbation im Gang - scheint, trotz Applikation der Perturbation über die Extremitäten und fehlender Fixierung des Beckens, geeignet zur Provokation erhöhter Anforderungen an die Stabilisierung des Rumpfes bei erwachsenen Probanden. Das veränderte neuromuskuläre und kinematische Kompensationsmuster bei Rückenschmerzpatienten kann als Surrogat einer erhöhten Belastung sowie einer reduzierten Rumpfstabilität bei Patienten bewertet werden. Das neu entwickelte Verfahren zur Erfassung der Rumpfstabilität ist geeignet, um Defizite bei Rückenschmerzpatienten zu identifizieren und folglich individuelle Zuordnungen zu Trainingsmaßnahmen vorzunehmen. Der Fokus in der Prävention bzw. Therapie von Rückenschmerzen sollte dem Folgend auf der Stabilisierung des Rumpfes mit dem Ziel der Verbesserung der neuromuskulären Kontrolle des Rumpfes in dynamischen Situationen liegen. Ein sensomotorischer Trainingsansatz (SMT) zur Optimierung der Rumpfstabilität und Kompensationsfähigkeit von unerwarteten externen Lasten ist zu präferieren. KW - electromyography KW - trunk kinematics KW - spine KW - Wirbelsäule KW - Elektromyographie KW - Rumpfkinematik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102428 ER - TY - THES A1 - Nitezki, Tina T1 - Charakterisierung von Stereotypien bei der FVB/NJ-Maus hinsichtlich metabolischer und immunologischer Aspekte auf die Stoffwechselleistung T1 - Characterization of stereotypies in FVB/NJ mice and their impact on metabolism and immune system N2 - Im Sinne des Refinements von Tierversuchen sollen alle Bedingungen während der Zucht, der Haltung und des Transports von zu Versuchszwecken gehaltenen Tieren und alle Methoden während des Versuchs so verbessert werden, dass die verwendeten Tiere ein minimales Maß an potentiellem Distress, Schmerzen oder Leiden erfahren. Zudem soll ihr Wohlbefinden durch die Möglichkeit des Auslebens speziesspezifischer Verhaltensweisen und die Anwendung tierschonender Verfahren maximal gefördert werden. Zur Etablierung von Grundsätzen des Refinements sind grundlegende Kenntnisse über die physiologischen Bedürfnisse und Verhaltensansprüche der jeweiligen Spezies unabdingbar. Die Experimentatoren sollten das Normalverhalten der Tiere kennen, um potentielle Verhaltensabweichungen, wie Stereotypien, zu verstehen und interpretieren zu können. Standardisierte Haltungsbedingungen von zu Versuchszwecken gehaltenen Mäusen weichen in diversen Aspekten von der natürlichen Umgebung ab und erfordern eine gewisse Adaptation. Ist ein Tier über einen längeren Zeitraum unfähig, sich an die gegebenen Umstände anzupassen, können abnormale Verhaltensweisen, wie Stereotypien auftreten. Stereotypien werden definiert als Abweichungen vom Normalverhalten, die repetitiv und ohne Abweichungen im Ablauf ausgeführt werden, scheinbar keiner Funktion dienen und der konkreten Umweltsituation nicht immer entsprechen. Bisher war unklar, in welchem Ausmaß stereotypes Verhalten den metabolischen Phänotyp eines Individuums beeinflusst. Ziel dieser Arbeit war es daher, das stereotype Verhalten der FVB/NJ-Maus erstmals detailliert zu charakterisieren, systematisch zusammenzutragen, welche metabolischen Konsequenzen dieses Verhalten bedingt und wie sich diese auf das Wohlbefinden der Tiere und die Verwendung stereotyper Tiere in Studien mit tierexperimentellem Schwerpunkt auswirken. Der Versuch begann mit der Charakterisierung der mütterlichen Fürsorge in der Parentalgeneration. Insgesamt wurden 35 Jungtiere der F1-Generation vom Absatz an, über einen Zeitraum von 11 Wochen einzeln gehalten, kontinuierlich beobachtet, bis zum Versuchsende wöchentlich Kotproben gesammelt und das Körpergewicht bestimmt. Zusätzlich erfolgten begleitende Untersuchungen wie Verhaltenstests und die Erfassung der physischen Aktivität und metabolischer Parameter. Anschließend wurden u.a. die zerebralen Serotonin- und Dopamingehalte, fäkale Glucocorticoidlevels, hepatisches Glykogen und muskuläre Glykogen- und Triglyceridlevels bestimmt. Nahezu unabhängig von der mütterlichen Herkunft entwickelte sich bei mehr als der Hälfte der 35 Jungtiere in der F1-Generation stereotypes Verhalten. Diese Daten deuten darauf hin, dass es keine Anzeichen für das Erlernen oder eine direkte genetische Transmission stereotypen Verhaltens bei der FVB/NJ-Maus gibt. Über den gesamten Beobachtungszeitraum zeichneten sich die stereotypen FVB/NJ-Mäuse durch ein eingeschränktes Verhaltensrepertoire aus. Zu Gunsten der erhöhten Aktivität und des Ausübens stereotypen Verhaltens lebten sie insgesamt weniger andere Verhaltensweisen (Klettern, Graben, Nagen) aus. Darüber hinaus waren Stereotypien sowohl im 24-Stunden Open Field Test als auch in der Messeinrichtung der indirekten Tierkalorimetrie mit einer erhöhten Aktivität und Motilität assoziiert, während die circadiane Rhythmik nicht divergierte. Diese erhöhte körperliche Betätigung spiegelte sich in den niedrigeren Körpergewichtsentwicklungen der stereotypen Tiere wieder. Außerdem unterschieden sich die Körperfett- und Körpermuskelanteile. Zusammenfassend lässt sich sagen, dass das Ausüben stereotypen Verhaltens zu Differenzen im metabolischen Phänotyp nicht-stereotyper und stereotyper FVB/NJ-Mäuse führt. Im Sinne der „Guten Wissenschaftlichen Praxis“ sollte das zentrale Ziel jedes Wissenschaftlers sein, aussagekräftige und reproduzierbare Daten hervorzubringen. Jedoch können keine validen Resultate von Tieren erzeugt werden, die in Aspekten variieren, die für den vorgesehenen Zweck der Studie nicht berücksichtigt wurden. Deshalb sollten nicht-stereotype und stereotype Individuen nicht innerhalb einer Versuchsgruppe randomisiert werden. Stereotype Tiere demzufolge von geplanten Studien auszuschließen, würde allerdings dem Gebot des zweiten R’s – der Reduction – widersprechen. Um Refinement zu garantieren, sollte der Fokus auf der maximal erreichbaren Prävention stereotypen Verhaltens liegen. Diverse Studien haben bereits gezeigt, dass die Anreicherung der Haltungsumwelt (environmental enrichment) zu einer Senkung der Prävalenz von Stereotypien bei Mäusen führt, dennoch kommen sie weiterhin vor. Daher sollte environmental enrichment zukünftig weniger ein „Kann“, sondern ein „Muss“ sein – oder vielmehr: der Goldstandard. Zudem würde eine profunde phänotypische Charakterisierung dazu beitragen, Mausstämme zu erkennen, die zu Stereotypien neigen und den für den spezifischen Zweck am besten geeigneten Mausstamm zu identifizieren, bevor ein Experiment geplant wird. N2 - In the sense of refinement animal experimentation, all conditions during breeding, husbandry and transport of animals used for experimental purposes and all methods during the experiment should be improved to reduce the degree of potential distress, pain or suffering. In addition, their well-being should be guaranteed by the possibility of expressing natural and species-specific behavioural patterns and by the application of considerate procedures. In order to establish principles for refinement, basic knowledge about the physiological needs and behavioural requirements of the respective species is indispensable. The experimenters should know the normal behaviour of animals in order to understand and interpret potential behavioural deviations, such as stereotypies. Standardized housing conditions of laboratory mice deviate from the natural environment in various aspects and might require a certain adaptation. Behavioural adaptation allows animals to adjust to environmental changes and leads to species’ characteristic behaviour. If an animal is unable to adapt to environmental conditions, abnormal behaviours like stereotypies might occur. Stereotypies are defined as deviations from normal behaviour, which are executed repetitively and without deviations in the performance, seem to serve no function and do not always correspond to the concrete environmental situation. Since it remains unclear to what extend stereotypic behaviour influences the individual’s metabolic phenotype, this study investigated behaviour of FVB/NJ mice in detail, exemplarily for stereotypy-prone mouse strains, and compiled the impact of behavioural deviations on physical activity, animal metabolism, animal welfare and on results obtained from studies with an animal specific focus. To detect early indicators for the later development of stereotypic behaviour in the F1 generation, this study started with investigating maternal care in the parental generation. Overall, 35 animals of the F1 generation were kept individually from weaning age. For 11 weeks they were observed, faecal samples were obtained and body weight was determined. Additionally, behavioural tests, metabolic parameters and physical activity were investigated. Furthermore, among others, cerebral serotonin and dopamine contents, faecal glucocorticoid levels and hepatic glycogen, muscular triglyceride and glycogen levels were assessed. Almost independently of the mother's origin, more than half of the 35 pups developed stereotypic behavior in the F1 generation. Data suggest that there is obviously no evidence of learning or a direct genetic transmission of stereotypic behavior in the FVB/NJ-mouse. The predominant portion of stereotypic animals performed the stereotypy of back-flipping (backwards jumping), some animals demonstrated stereotypic circuit running (running in circles on the cage bottom) and wire gnawing (persistent gnawing on the cage grid while hanging with the forelimbs on it). Because of the increased activity and the performance of stereotypic behaviour, stereotypic mice displayed a restricted behavioural repertoire (reduced climbing, digging, gnawing). Moreover, stereotypies were associated with increased activity and motility, both in the 24-hours open field test and in the ITK system, while the circadian rhythm did not diverge. This elevated physical activity was reflected in the expected gender-dependent lower body weight development of stereotypic animals. In addition, stereotypic FVB/NJ-mice contained more relative muscle mass and less fat mass compared to non-stereotypic FVB/NJ-mice in experimental weeks 7 and 12. Besides, significant differences in relative organ weights were found. In conclusion, the performance of stereotypic behaviour leads to differences in the metabolic phenotype between non-stereotypic and stereotypic FVB/NJ mice. In the sense of "Good Scientific Practice", the central aim of any scientist should be to generate meaningful and reproducible data. However, no valid results can be generated with data derived from animals which differ in aspects that were not considered for the designated purpose of the study. Therefore, stereotypic and non-stereotypic individuals should not be randomized within one trial group. To generally exclude stereotypic animals from further studies, though, would interfere with the commandment of the second "R" - the reduction. To guarantee a maximum refinement, the focus should be the highest achievable prevention of stereotypies. Multiple studies indicate that environmental enrichment decreases the prevalence of stereotypic behaviour in mice, nevertheless they still occur. Thus, environmental enrichment of animal housing should not be a "can" but a "must", or rather the “golden standard”. Moreover, a profound phenotypic characterization would help to identify a stereotypy-prone mouse strain and to determine the mouse strain most suitable for the specific purpose before planning an experiment. KW - Stereotypien KW - Verhalten KW - FVB/NJ Maus KW - Versuchstierkunde KW - stereotypy KW - behaviour KW - FVB/NJ mouse KW - laboratory animal sciences Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402265 ER - TY - THES A1 - Olejko, Lydia T1 - Förster resonance energy transfer (FRET)-based nanophotonics using DNA origami structures T1 - Förster-Resonanzenergietransfer (FRET) basierende Nanophotonik auf DNA Origami Strukturen N2 - The field of nanophotonics focuses on the interaction between electromagnetic radiation and matter on the nanometer scale. The elements of nanoscale photonic devices can transfer excitation energy non-radiatively from an excited donor molecule to an acceptor molecule by Förster resonance energy transfer (FRET). The efficiency of this energy transfer is highly dependent on the donor-acceptor distance. Hence, in these nanoscale photonic devices it is of high importance to have a good control over the spatial assembly of used fluorophores. Based on molecular self-assembly processes, various nanostructures can be produced. Here, DNA nanotechnology and especially the DNA origami technique are auspicious self-assembling methods. By using DNA origami nanostructures different fluorophores can be introduced with a high local control to create a variety of nanoscale photonic objects. The applications of such nanostructures range from photonic wires and logic gates for molecular computing to artificial light harvesting systems for artificial photosynthesis. In the present cumulative doctoral thesis, different FRET systems on DNA origami structures have been designed and thoroughly analyzed. Firstly, the formation of guanine (G) quadruplex structures from G rich DNA sequences has been studied based on a two-color FRET system (Fluorescein (FAM)/Cyanine3 (Cy3)). Here, the influences of different cations (Na+ and K+), of the DNA origami structure and of the DNA sequence on the G-quadruplex formation have been analyzed. In this study, an ion-selective K+ sensing scheme based on the G-quadruplex formation on DNA origami structures has been developed. Subsequently, the reversibility of the G-quadruplex formation on DNA origami structures has been evaluated. This has been done for the simple two-color FRET system which has then been advanced to a switchable photonic wire by introducing additional fluorophores (FAM/Cy3/Cyanine5 (Cy5)/IRDye®700). In the last part, the emission intensity of the acceptor molecule (Cy5) in a three-color FRET cascade has been tuned by arranging multiple donor (FAM) and transmitter (Cy3) molecules around the central acceptor molecule. In such artificial light harvesting systems, the excitation energy is absorbed by several donor and transmitter molecules followed by an energy transfer to the acceptor leading to a brighter Cy5 emission. Furthermore, the range of possible excitation wavelengths is extended by using several different fluorophores (FAM/Cy3/Cy5). In this part of the thesis, the light harvesting efficiency (antenna effect) and the FRET efficiency of different donor/transmitter/acceptor assemblies have been analyzed and the artificial light harvesting complex has been optimized in this respect. N2 - Nanotechnologie hat in den letzten Jahrzehnten durch die Herstellung von Materialien mit außergewöhnlichen Eigenschaften für Anwendungen im Bereich der Medizin und Materialwissenschaften immer mehr an Popularität gewonnen. Die Herstellungsmethoden von Nanostrukturen sind weit gefächert. Auch Desoxyribonukleinsäure (DNS bzw. engl. DNA, deoxyribonucleic acid) kann für die Herstellung von Strukturen im Nanometerbereich genutzt werden. Diese sogenannte DNA-Nanotechnologie wurde in den frühen 1980er Jahren von Nadrian C. Seeman begründet. Ungefähr 30 Jahre später wurde eine neue Methodik für die Herstellung von DNA-Nanostrukturen von Paul W. K. Rothemund entwickelt, die er „scaffold DNA origami“ (Gerüst-DNA-Origami) nannte. DNA-Origami-Nanostrukturen können relativ einfach hergestellt werden und eignen sich perfekt für die Anordnung unterschiedlicher Moleküle (zum Beispiel Fluorophore) mit hoher räumlicher Kontrolle und Präzision. Daher können sie als Substrate genutzt werden, um verschiedene Förster-Resonanzenergietransfer (FRET) Systeme zu entwerfen und zu untersuchen. FRET ist ein strahlungsloser Energietransfer, bei dem die Anregungsenergie von einem Donor- auf ein Akzeptor-Molekül übertragen wird. In dieser kumulativen Doktorarbeit wurden verschiedene FRET-Systeme auf DNA-Origami-Nanostrukturen entwickelt und mithilfe der Fluoreszenzspektroskopie untersucht. Hierbei wurde zuerst die durch einwertige Kationen (Kalium oder Natrium) induzierte Guanin-Quadruplex-Faltung von freier Telomer-DNA und Telomer-DNA auf DNA-Origami-Strukturen mittels FRET analysiert. Diese Untersuchungen haben gezeigt, dass die freie umgedrehte menschliche Telomer-Sequenz (RevHumTel, 5'-(GGG ATT)4) generell sensitiver auf K+ als auf Na+ reagiert. Durch die Immobilisierung der Telomer-DNA auf DNA-Origami-Strukturen kann eine vollständige Selektivität für K+ erreicht werden. Interessanterweise wird die Ionenselektivität aufgehoben, wenn die menschliche Telomer-Sequenz (HumTel, 5'-(TTA GGG)4) verwendet wird. Basierend auf der G-Quadruplex-Faltung konnten schaltbare FRET-Systeme entwickelt werden, da sich die G-Quadruplexe wieder entfalten, wenn die Kationen mithilfe von zum Beispiel Kryptanden entfernt werden. In den hier untersuchten FRET-Systemen konnte zwischen hoher FRET-Effizienz (gefalteter G-Quadruplex) und niedriger FRET-Effizienz (entfalteter DNA Einzelstrang) durch Zugabe KCl bzw. cryptand gewechselt werden. Da sich DNA-Origami-Strukturen recht einfach modifizieren lassen, wurde das ursprüngliche zwei-Farben-FRET-System durch Hinzufügen eines weiteren etwas rotverschobenen Farbstoffes erweitert (drei-Farben-FRET-Kaskade). Schließlich konnte ein schaltbarer photonischer Draht durch Einfügen eines vierten Farbstoffes entwickelt werden. Die Emissionsintensität des finalen Akzeptors ist in einer einfachen drei-Farben-FRET-Kaskade (ein Donor, ein Transmitter und ein Akzeptor) verhältnismäßig gering und kann durch das Anordnen von mehreren Donor- und Transmitter-Molekülen um ein zentrales Akzeptor-Molekül herum stark erhöht werden. In diesen sogenannten künstlichen Lichtsammelkomplexen absorbieren die Donor-Moleküle das Anregungslicht und übertragen dieses über mehrere FRET-Stufen zum Akzeptor-Molekül. Dadurch wird der Wellenlängenbereich der elektromagnetischen Strahlung, welcher vom Akzeptor absorbiert werden kann, vergrößert und die Emissionsintensität des Akzeptors verstärkt. In diesem Teil der Arbeit wurde die Anzahl der Farbstoffe und die Anordnung dieser unterschiedlichen Farbstoffe variiert und die Lichtsammeleffizienz und FRET-Effizienz bestimmt. Hierbei wurden diese Parameter optimiert und aufgrund der gefundenen Ergebnisse konnten Design-Regeln für solche künstlichen Lichtsammelkomplexe aufgestellt werden. KW - DNA origami KW - FRET KW - Förster resonance energy transfer KW - DNA Origami KW - FRET KW - Förster-Resonanzenergietransfer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396747 ER - TY - THES A1 - Osei Tutu, Anthony T1 - Linking global mantle dynamics with lithosphere dynamics using the geoid, plate velocities and lithosphere stress state as constraints T1 - Verknüpfung der globalen Manteldynamik mit der Lithosphärendynamik, unter Berücksichtigung des Geoids, der Plattengeschwindigkeiten und des Spannungszustandes der Lithosphäre als Einschränkungen BT - lithosphere and mantle dynamics coupling N2 - Lithospheric plates move over the low viscosity asthenosphere balancing several forces. The driving forces include basal shear stress exerted by mantle convection and plate boundary forces such as slab pull and ridge push, whereas the resisting forces include inter-plate friction, trench resistance, and cratonic root resistance. These generate plate motions, the lithospheric stress field and dynamic topography which are observed with different geophysical methods. The orientation and tectonic regime of the observed crustal/lithospheric stress field further contribute to our knowledge of different deformation processes occurring within the Earth's crust and lithosphere. Using numerical models previous studies were able to identify major forces generating stresses in the crust and lithosphere which also contribute to the formation of topography as well as driving lithospheric plates. They showed that the first-order stress pattern explaining about 80\,\% of the stress field originates from a balance of forces acting at the base of the moving lithospheric plates due to convective flow in the underlying mantle. The remaining second-order stress pattern is due to lateral density variations in the crust and lithosphere in regions of pronounced topography and high gravitational potential, such as the Himalayas and mid-ocean ridges. By linking global lithosphere dynamics to deep mantle flow this study seeks to evaluate the influence of shallow and deep density heterogenities on plate motions, lithospheric stress field and dynamic topography using the geoid as a major constraint for mantle rheology. We use the global 3D lithosphere-asthenosphere model SLIM3D with visco-elasto-plastic rheology coupled at 300 km depth to a spectral model of mantle flow. The complexity of the lithosphere-asthenosphere component allows for the simulation of power-law rheology with creep parameters accounting for both diffusion and dislocation creep within the uppermost 300 km. First we investigate the influence of intra-plate friction and asthenospheric viscosity on present-day plate motions. Previous modelling studies have suggested that small friction coefficients (µ < 0.1, yield stress ~ 100 MPa) can lead to plate tectonics in models of mantle convection. Here we show that, in order to match present-day plate motions and net rotation, the frictional parameter must be less than 0.05. We are able to obtain a good fit with the magnitude and orientation of observed plate velocities (NUVEL-1A) in a no-net-rotation (NNR) reference frame with µ < 0.04 and minimum asthenosphere viscosity ~ 5*10e19 Pas to 10e20 Pas. Our estimates of net rotation (NR) of the lithosphere suggest that amplitudes ~ 0.1-0.2 °/Ma, similar to most observation-based estimates, can be obtained with asthenosphere viscosity cutoff values of ~ 10e19 Pas to 5*10e19 Pas and friction coefficient µ < 0.05. The second part of the study investigates further constraints on shallow and deep mantle heterogeneities causing plate motion by predicting lithosphere stress field and topography and validating with observations. Lithosphere stresses and dynamic topography are computed using the modelling setup and rheological parameters for prescribed plate motions. We validate our results with the World Stress Map 2016 (WSM2016) and the observed residual topography. Here we tested a number of upper mantle thermal-density structures. The one used to calculate plate motions is considered the reference thermal-density structure. This model is derived from a heat flow model combined with a sea floor age model. In addition we used three different thermal-density structures derived from global S-wave velocity models to show the influence of lateral density heterogeneities in the upper 300 km on model predictions. A large portion of the total dynamic force generating stresses in the crust/lithosphere has its origin in the deep mantle, while topography is largely influenced by shallow heterogeneities. For example, there is hardly any difference between the stress orientation patterns predicted with and without consideration of the heterogeneities in the upper mantle density structure across North America, Australia, and North Africa. However, the crust is dominant in areas of high altitude for the stress orientation compared to the all deep mantle contribution. This study explores the sensitivity of all the considered surface observables with regards to model parameters providing insights into the influence of the asthenosphere and plate boundary rheology on plate motion as we test various thermal-density structures to predict stresses and topography. N2 - Lithosphärenplatten bewegen sich über die niederviskose Asthenosphäre, wobei mehrere Kräfte im Gleichgewicht stehen. Die antreibenden Kräfte umfassen eine basale Schubspannung, die durch Mantelkonvektion verursacht wird, und Plattengrenzkräfte, wie z.B. slab pull und ridge push, während die widerstehenden Kräfte die Reibung zwischen Platten, Widerstand an Tiefseegräben sowie an den kratonischen Wurzeln umfassen. Diese Kräfte erzeugen Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie, die mit verschiedenen geophysikalischen Methoden beobachtet werden. Die Orientierung und das tektonische Regime des beobachteten Krusten- und lithosphärischen Spannungsfeldes tragen weiter zu unserem Wissen über unterschiedliche Deformationsprozesse in der Erdkruste und Lithosphäre bei. Mit Hilfe von numerischen Modellen konnten frühere Studien die wichtigsten Kräfte identifizieren, die Spannungen in der Kruste und in der Lithosphäre erzeugen, und die auch zur Bildung von Topographie sowie zum Antrieb der lithosphärischen Platten beitragen. Sie zeigten, dass das Spannungsmuster erster Ordnung, das etwa 80% des Spannungsfeldes erklärt, aus einem Gleichgewicht der Kräfte stammt, die an der Basis der sich bewegenden lithosphärischen Platten aufgrund der konvektiven Strömung in dem darunter liegenden Mantel wirken. Das verbleibende Spannungsmuster der zweiten Ordnung ist auf laterale Dichtevariationen in der Kruste und der Lithosphäre in Regionen mit ausgeprägter Topographie und hohem Gravitationspotential zurückzuführen, wie im Himalaya und an den Mittelozeanischen Rücken. Durch die Verknüpfung der globalen Lithosphären-Dynamik mit den tiefen Mantelströmungen versucht diese Studie, den Einfluss von flachen und tiefen Dichte-Heterogenitäten auf die Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie mit dem Geoid als einer wesentlichen Randbedingung für die Mantel-Rheologie zu untersuchen. Ich verwende das globale 3D-Lithosphären-Asthenosphären-Modell SLIM3D mit viskoelasto-plastischer Rheologie, gekoppelt in 300 km Tiefe an ein spektrales Modell der Mantelströmung. Die Komplexität der Lithosphären-Asthenosphären- Komponente ermöglicht die Simulation der Power-law-Rheologie mit Kriechparametern, die sowohl Diffusions-als auch Dislokationskriechen in den obersten 300km einschließen. Zuerst untersuche ich den Einfluss der Intra-Platten-Reibung und der asthenosphärischen Viskosität auf heutige Plattenbewegungen. Bisherige Modellierungsstudien haben vorgeschlagen, dass kleine Reibungskoeffizienten ( u < 0,1, FlieSSspannung ~ 100 MPa) zu Plattentektonik in Modellen der Mantelkonvektion führen können. Hier zeigen wir, dass der Reibungsparameter, um den heutigen Plattenbewegungen und der Netto-Rotation zu entsprechen, kleiner als 0,05 sein muss. Wir können eine gute Übereinstimmung mit der Größe und Orientierung der beobachteten Plattengeschwindigkeiten (NUVEL-1A) in einem No-Net- Rotation- (NNR) Bezug system mit < 0,04 und minimaler Asthenosphärenviskosität ~ 510^19 Pas bis 10^20 Pas erreichen. Unsere Schätzungen der Netto-Rotation (NR) der Lithosphäre deuten darauf hin, dass Amplituden ~ 0:1 - 0:2 (◦/Ma), ähnlich den meisten Beobachtungs-basierten Schätzungen, mit Asthenosphären- Viskositäts-Cutoff-Werten von ~ 10^19 Pas bis 5 10^19 Pas und Reibungskoeffizient u < 0,05 erreicht werden können. Der zweite Teil der Studie untersucht weitere Einschränkungen auf flache und tiefe Mantelheterogenitäten, welche Plattenbewegungen verursachen, durch die Vorhersage des Lithosphärenspannungsfeldes und der Topographie und deren Validierung mit Beobachtungen. Lithosphärenspannungen und dynamische Topographie werden mit dem Modellaufbau und den rheologischen Parametern für vorgeschriebene Plattenbewegungen berechnet.Wir validieren unsere Ergebnisse mit der Weltspannungskarte 2016 (WSM2016) und der beobachteten Residualtopographie. Hier haben wir eine Anzahl von thermischen Dichte-Strukturen für den oberen Mantel getestet. Diejenige, die verwendet wurde, um Plattenbewegungen zu berechnen, wird als Referenz- thermische Dichte-Struktur betrachtet. Dieses Modell ist abgeleitet aus einem Wärmestrommodell, kombiniert mit einem Ozeanbodenalter-Modell. Darüber hinaus haben wir drei verschiedene thermische Dichtestrukturen abgeleitet aus globalen S-Wellengeschwindigkeits modellen verwendet, um den Einfluss von Heterogenitäten der lateralen Dichte in den oberen 300 km auf Modellvorhersagen zu zeigen. Ein großer Teil der gesamten dynamischen Kraft, die Spannungen in der Kruste / Lithosphäre erzeugt, hat ihren Ursprung im tiefen Mantel, während die Topographie weitgehend durch flache Heterogenitäten beeinflusst wird. Zum Beispiel gibt es kaum einen Unterschied zwischen den Spannungsorientierungsmustern, die mit und ohne Berücksichtigung der Heterogenitäten in der Dichtestruktur des oberen Mantels in Nordamerika, Australien und Nordafrika vorhergesagt wurden. Allerdings dominiert die Kruste in Gebieten von großer Höhe für die Spannungorientierung im Vergleich zu allen tiefen Mantelbeiträgen. Diese Studieerforschen die Empfindlichkeit aller betrachteten Oberflächen-Observablen in Bezug auf Modellparameter und gibt Einblicke über den Einfluss der Asthenosphäre und Plattengrenzen-Rheologie auf Plattenbewegung, wobei wir verschiedene thermische Dichte Strukturen zur Vorhersage von Spannungen und Topographie testen. KW - plate motions KW - plate boundary friction KW - upper mantle viscosity structure KW - lithosphere stress field KW - dynamic topography KW - lithosphere net rotation KW - upper mantle density heterogeneities KW - Plattenbewegungen KW - Reibung an Plattengrenzen KW - Viskositätsstruktur im oberen Mantel KW - lithosphärisches Spannungsfeld KW - dynamische Topographie KW - Nettorotation der Lithosphäre KW - Dichteheterogenitäten im oberen Mantel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407057 ER - TY - THES A1 - Otto, Christopher T1 - Numerical analysis of thermal, hydraulic and mechanical processes in the near- and far-field of underground coal gasification reactors T1 - Numerische Analyse von thermalen, hydraulischen und mechanischen Prozessen im Nah- und Fernfeld von Untertage-Kohlevergasungs-Reaktoren N2 - Die Untertagevergasung von Kohle (UTV) ermöglicht die Erschließung konventionell nicht förderbarer Kohleressourcen und bietet dadurch Potenzial zur Erhöhung der weltweiten Kohlereserven. Bei der in-situ Kohleumwandlung entsteht ein hochkalorisches Synthesegas, das elektrifiziert oder zur Gewinnung chemischer Rohstoffe und synthetischer Kraftstoffe eingesetzt werden kann. Neben den wirtschaftlichen Möglichkeiten, bestehen jedoch auch standort-spezifische Umweltgefährdungspotentiale durch Subsidenz und Schadstoffmigration von UTV-Rückständen in nutzbare Grundwasserleiter. Eine nachhaltige und effiziente UTV erfordert ein umfangreiches Verständnis der thermisch, hydraulisch und mechanisch gekoppelten Prozesse im UTV-Reaktornahbereich. Aufgrund der hohen Investitionskosten von UTV-Pilotanlagen, sind numerische Simulationen gekoppelter Prozesse von entscheidender Bedeutung für die Bewertung möglicher UTV-Umweltauswirkungen. Im Rahmen dieser Arbeit wird die UTV-induzierte Permeabilitätsveränderung, Erzeugung möglicher hydraulischer Kurzschlüsse benachbarter Reaktoren und Dynamik nicht-isothermer Multiphasenflüsse mit gekoppelten Simulationen analysiert. Die Simulationsergebnisse zeigen, dass eine Implementierung temperaturabhängiger thermo-mechanischer Gesteinsparameter nur für Untersuchungen von Permeabilitäts-änderungen im Reaktornachbereich notwendig ist. Die Ergebnisse erlauben somit eine recheneffiziente Realisierung von komplexen thermo-mechanisch gekoppelten Simulations-studien regionalskaliger Modelle mit konstanten Gesteinsparametern, bei nahezu gleichbleibender Ergebnisgenauigkeit, die zur Bewertung von UTV-Umweltgefährdungs-potenzialen beitragen. Simulationen zur Ausbildung hydraulischer Kurzschlüsse zwischen einzelnen UTV-Reaktoren auf regionaler Skala, verdeutlichen die Relevanz von geologischen Störungen an einem UTV-Standort, da diese durch Reaktivierung hydraulische Verbindungen induzieren und somit einen effizienten und nachhaltigen UTV-Betrieb negativ beeinträchtigen können. In diesem Zusammenhang kommt der Ausbildung einer Wasserdampfphase, der sogenannte „steam jacket“, im Hochtemperaturnahbereich von UTV-Reaktoren, als potenzielle Barriere zur Vermeidung von UTV-Schadstoffaustritten und zur potenziellen Minimierung von Energieverlusten eine entscheidende Bedeutung zu. Diese steam jackets entstehen durch evaporiertes Formationswasser und sind komplexe nicht-isotherme Multiphasenfluss-Phänomene. Für ein verbessertes Prozessverständnis dieser Multiphasenflüsse, wurde ein neuartiges Modellkonzept entwickelt, welches, validiert gegen Feldversuchsdaten, erstmals sowohl eine Quantifizierung als auch Prognose von Wasserflussraten in und aus einem UTV-Reaktor erlaubt. Die Ergebnisse der vorgelegten Doktorarbeit bilden eine wichtige Grundlage für eine erfolgreiche Integration gekoppelter thermo-hydro-mechanischer Simulationen in weiterführende Studien. Vor dem Hintergrund hoher UTV-Umweltgefährdungspotentiale, können diese zur verbesserten Bewertung und Minderung von UTV-Umweltauswirkungen beitragen, sowie die UTV-Effizienz nachhaltig optimieren. N2 - Underground coal gasification (UCG) has the potential to increase worldwide coal reserves by developing coal resources, currently not economically extractable by conventional mining methods. For that purpose, coal is combusted in situ to produce a high-calorific synthesis gas with different end-use options, including electricity generation as well as production of fuels and chemical feedstock. Apart from the high economic potentials, UCG may induce site‐specific environmental impacts, including ground surface subsidence and pollutant migration of UCG by-products into shallow freshwater aquifers. Sustainable and efficient UCG operation requires a thorough understanding of the coupled thermal, hydraulic and mechanical processes, occurring in the UCG reactor vicinity. The development and infrastructure costs of UCG trials are very high; therefore, numerical simulations of coupled processes in UCG are essential for the assessment of potential environmental impacts. Therefore, the aim of the present study is to assess UCG-induced permeability changes, potential hydraulic short circuit formation and non-isothermal multiphase fluid flow dynamics by means of coupled numerical simulations. Simulation results on permeability changes in the UCG reactor vicinity demonstrate that temperature-dependent thermo-mechanical parameters have to be considered in near-field assessments, only. Hence, far-field simulations do not become inaccurate, but benefit from increased computational efficiency when thermo-mechanical parameters are maintained constant. Simulations on potential hydraulic short circuit formation between single UCG reactors at regional-scale emphasize that geologic faults may induce hydraulic connections, and thus compromise efficient UCG operation. In this context, the steam jacket surrounding high-temperature UCG reactors plays a vital role in avoiding UCG by-products escaping into freshwater aquifers and in minimizing energy consumption by formation fluid evaporation. A steam jacket emerges in the close reactor vicinity due to phase transition of formation water and is a non-isothermal flow phenomenon. Considering this complex multiphase flow behavior, an innovative conceptual modeling approach, validated against field data, enables the quantification and prediction of UCG reactor water balances. The findings of this doctoral thesis provide an important basis for integration of thermo-hydro-mechanical simulations in UCG, required for the assessment and mitigation of its potential environmental impacts as well as optimization of its efficiency. KW - underground coal gasification KW - numerical simulation KW - non-isothermal multiphase flow KW - thermo-mechanical modeling KW - Untertage-Kohlevergasung KW - numerische Simulation KW - nichtisothermer Mehrphasenfluss KW - thermo-mechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404625 ER - TY - THES A1 - Paape, Dario L. J. F. T1 - Antecedent complexity effects on ellipsis processing T1 - Einflüsse der Antezedenskomplexität auf die Verarbeitung von Ellipsen N2 - This dissertation explores whether the processing of ellipsis is affected by changes in the complexity of the antecedent, either due to added linguistic material or to the presence of a temporary ambiguity. Murphy (1985) hypothesized that ellipsis is resolved via a string copying procedure when the antecedent is within the same sentence, and that copying longer strings takes more time. Such an account also implies that the antecedent is copied without its structure, which in turn implies that recomputing its syntax and semantics may be necessary at the ellipsis gap. Alternatively, several accounts predict null effects of antecedent complexity, as well as no reparsing. These either involve a structure copying mechanism that is cost-free and whose finishing time is thus independent of the form of the antecedent (Frazier & Clifton, 2001), treat ellipsis as a pointer into content-addressable memory with direct access (Martin & McElree, 2008, 2009), or assume that one structure is ‘shared’ between antecedent and gap (Frazier & Clifton, 2005). In a self-paced reading study on German sluicing, temporarily ambiguous garden-path clauses were used as antecedents, but no evidence of reparsing in the form of a slowdown at the ellipsis site was found. Instead, results suggest that antecedents which had been reanalyzed from an initially incorrect structure were easier to retrieve at the gap. This finding that can be explained within the framework of cue-based retrieval parsing (Lewis & Vasishth, 2005), where additional syntactic operations on a structure yield memory reactivation effects. Two further self-paced reading studies on German bare argument ellipsis and English verb phrase ellipsis investigated if adding linguistic content to the antecedent would increase processing times for the ellipsis, and whether insufficiently demanding comprehension tasks may have been responsible for earlier null results (Frazier & Clifton, 2000; Martin & McElree, 2008). It has also been suggested that increased antecedent complexity should shorten rather than lengthen retrieval times by providing more unique memory features (Hofmeister, 2011). Both experiments failed to yield reliable evidence that antecedent complexity affects ellipsis processing times in either direction, irrespectively of task demands. Finally, two eye-tracking studies probed more deeply into the proposed reactivation-induced speedup found in the first experiment. The first study used three different kinds of French garden-path sentences as antecedents, with two of them failing to yield evidence for reactivation. Moreover, the third sentence type showed evidence suggesting that having failed to assign a structure to the antecedent leads to a slowdown at the ellipsis site, as well as regressions towards the ambiguous part of the sentence. The second eye-tracking study used the same materials as the initial self-paced reading study on German, with results showing a pattern similar to the one originally observed, with some notable differences. Overall, the experimental results are compatible with the view that adding linguistic material to the antecedent has no or very little effect on the ease with which ellipsis is resolved, which is consistent with the predictions of cost-free copying, pointer-based approaches and structure sharing. Additionally, effects of the antecedent’s parsing history on ellipsis processing may be due to reactivation, the availability of multiple representations in memory, or complete failure to retrieve a matching target. N2 - Diese Dissertation untersucht, ob die Verarbeitung elliptischer Strukturen von Veränderungen der Komplexität des Antezedens beeinflusst wird, entweder durch zusätzliches linguistisches Material oder durch die Präsenz einer temporären Ambiguität. Murphy (1985) stellte die Hypothese auf, dass Ellipsen durch das Kopieren von Zeichenketten aufgelöst werden, sofern das Antezedens sich im selben Satz befindet, und dass das Kopieren längerer Zeichenketten mehr Zeit in Anspruch nimmt. Ein solcher Ansatz impliziert auch, dass das Antezedens ohne seine Struktur kopiert wird, was wiederum impliziert, dass seine Struktur und Semantik an der Auslassungsstelle möglicherweise erneut berechnet werden müssen. Alternativ existieren mehrere Ansätze, die Nulleffekte der Antezedenskomplexität sowie keine strukturelle Neuberechnung vorhersagen. Diese Ansätze involvieren entweder einen Mechanismus, der die bestehende Struktur kostenfrei überträgt und dessen Latenz von der Form des Antezedens unabhängig ist (Frazier & Clifton, 2001), behandeln die Ellipse als Verweis in einen inhaltsadressierbaren Gedächtnisspeicher (Martin & McElree, 2008, 2009) oder nehmen an, dass die Struktur des Antezedens mit der Ellipse "geteilt" wird (Frazier & Clifton, 2005). In einer Self-Paced Reading-Studie mit deutschen Sluicing-Strukturen wurden temporär ambige Garden Path-Sätze als Antezedenten verwendet, es konnte aber keine Evidenz für strukturelle Neuberechnung in Form höherer Lesezeiten am Punkt der Ellipse gefunden werden. Stattdessen zeigte sich, dass Antezedenten, deren ursprünglich inkorrekt zugewiesene Strukturen reanalysiert worden waren, am Punkt der Ellipse leichter abzurufen waren. Dieses Resultat kann im Kontext des Cue-Based Retrieval Parsing (Lewis & Vasishth, 2005) erklärt werden, wo zusätzliche syntaktische Operationen auf einer Struktur zur Stärkung der assoziierten Gedächtnisspur führen. Zwei weitere Self-Paced Reading-Studien zu deutschen Bare Argument-Ellipsen und englischen VP-Ellipsen sollten ausloten, ob zusätzliches linguistisches Material im Antezedens zu längeren Verarbeitungszeiten für die Ellipse führen würde und ob zu wenig fordernde Verständnistests der Grund für frühere Nullresultate waren (Frazier & Clifton, 2000; Martin & McElree, 2008). Auch gibt es die Theorie, dass erhöhte Komplexität des Antezedens Abrufzeiten verkürzen und nicht verlangsamen sollte, da mehr einzigartige Gedächtnismerkmale zur Verfügung stehen (Hofmeister, 2011). Beide Experimente lieferten keine Evidenz für einen Einfluss der Antezedenskomplexität auf die Verarbeitungszeit der Ellipse in die eine oder in die andere Richtung, unabhängig von der Aufgabenschwierigkeit. Schließlich wurde in zwei Eyetracking-Studien der in der ersten Studie beschriebene Reaktivierungseffekt genauer betrachtet. Die erste dieser Studien verwendete drei verschiedene Typen von Garden Path-Strukturen im Französischen als Antezedenten, von denen zwei keine Evidenz für Reaktivierung zeigten. Darüber hinaus zeigte die dritte getestete Struktur Evidenz dafür, dass eine Verlangsamung am Punkt der Ellipse sowie Regressionen zum Antezedens auftreten, wenn dem Antezedens anfänglich keine Struktur zugewiesen wurde. Die zweite Eyetracking-Studie verwendete dieselben deutschen Materialen wie die ursprüngliche Self-Paced Reading-Studie, mit größtenteils ähnlichen Resultaten und einigen beachtenswerten Abweichungen. Insgesamt sind die experimentellen Ergebnisse mit der Ansicht kompatibel, dass das Hinzufügen von linguistischen Material zum Antezedens keine oder nur sehr minimale Effekte auf die Verarbeitungszeit der Ellipse hat, was mit den Vorhersagen auf Basis eines kostenfreien Kopiermechanismus, eines inhaltsadressierten Gedächtnisspeichers oder einer "geteilten" Struktur übereinstimmt. Effekte, die sich aus der Verarbeitungsgeschichte des Antezedens ergeben, sind möglicherweise auf Reaktivierung, das Vorhandensein mehrerer Gedächtnisspuren oder ein komplettes Scheitern des Gedächtnisabrufs zurückzuführen. KW - ellipsis KW - antecedent complexity KW - psycholinguistics KW - task demands KW - garden path KW - Ellipse KW - Psycholinguistik KW - Temporäre Ambiguität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411689 ER - TY - THES A1 - Papenbrock, Thorsten T1 - Data profiling - efficient discovery of dependencies T1 - Profilerstellung für Daten - Effiziente Entdeckung von Abhängigkeiten N2 - Data profiling is the computer science discipline of analyzing a given dataset for its metadata. The types of metadata range from basic statistics, such as tuple counts, column aggregations, and value distributions, to much more complex structures, in particular inclusion dependencies (INDs), unique column combinations (UCCs), and functional dependencies (FDs). If present, these statistics and structures serve to efficiently store, query, change, and understand the data. Most datasets, however, do not provide their metadata explicitly so that data scientists need to profile them. While basic statistics are relatively easy to calculate, more complex structures present difficult, mostly NP-complete discovery tasks; even with good domain knowledge, it is hardly possible to detect them manually. Therefore, various profiling algorithms have been developed to automate the discovery. None of them, however, can process datasets of typical real-world size, because their resource consumptions and/or execution times exceed effective limits. In this thesis, we propose novel profiling algorithms that automatically discover the three most popular types of complex metadata, namely INDs, UCCs, and FDs, which all describe different kinds of key dependencies. The task is to extract all valid occurrences from a given relational instance. The three algorithms build upon known techniques from related work and complement them with algorithmic paradigms, such as divide & conquer, hybrid search, progressivity, memory sensitivity, parallelization, and additional pruning to greatly improve upon current limitations. Our experiments show that the proposed algorithms are orders of magnitude faster than related work. They are, in particular, now able to process datasets of real-world, i.e., multiple gigabytes size with reasonable memory and time consumption. Due to the importance of data profiling in practice, industry has built various profiling tools to support data scientists in their quest for metadata. These tools provide good support for basic statistics and they are also able to validate individual dependencies, but they lack real discovery features even though some fundamental discovery techniques are known for more than 15 years. To close this gap, we developed Metanome, an extensible profiling platform that incorporates not only our own algorithms but also many further algorithms from other researchers. With Metanome, we make our research accessible to all data scientists and IT-professionals that are tasked with data profiling. Besides the actual metadata discovery, the platform also offers support for the ranking and visualization of metadata result sets. Being able to discover the entire set of syntactically valid metadata naturally introduces the subsequent task of extracting only the semantically meaningful parts. This is challenge, because the complete metadata results are surprisingly large (sometimes larger than the datasets itself) and judging their use case dependent semantic relevance is difficult. To show that the completeness of these metadata sets is extremely valuable for their usage, we finally exemplify the efficient processing and effective assessment of functional dependencies for the use case of schema normalization. N2 - Data Profiling ist eine Disziplin der Informatik, die sich mit der Analyse von Datensätzen auf deren Metadaten beschäftigt. Die verschiedenen Typen von Metadaten reichen von einfachen Statistiken wie Tupelzahlen, Spaltenaggregationen und Wertverteilungen bis hin zu weit komplexeren Strukturen, insbesondere Inklusionsabhängigkeiten (INDs), eindeutige Spaltenkombinationen (UCCs) und funktionale Abhängigkeiten (FDs). Diese Statistiken und Strukturen dienen, sofern vorhanden, dazu die Daten effizient zu speichern, zu lesen, zu ändern und zu verstehen. Die meisten Datensätze stellen ihre Metadaten aber nicht explizit zur Verfügung, so dass Informatiker sie mittels Data Profiling bestimmen müssen. Während einfache Statistiken noch relativ schnell zu berechnen sind, stellen die komplexen Strukturen schwere, zumeist NP-vollständige Entdeckungsaufgaben dar. Es ist daher auch mit gutem Domänenwissen in der Regel nicht möglich sie manuell zu entdecken. Aus diesem Grund wurden verschiedenste Profiling Algorithmen entwickelt, die die Entdeckung automatisieren. Keiner dieser Algorithmen kann allerdings Datensätze von heutzutage typischer Größe verarbeiten, weil entweder der Ressourcenverbrauch oder die Rechenzeit effektive Grenzen überschreiten. In dieser Arbeit stellen wir neuartige Profiling Algorithmen vor, die automatisch die drei populärsten Typen komplexer Metadaten entdecken können, nämlich INDs, UCCs, und FDs, die alle unterschiedliche Formen von Schlüssel-Abhängigkeiten beschreiben. Die Aufgabe dieser Algorithmen ist es alle gültigen Vorkommen der drei Metadaten-Typen aus einer gegebenen relationalen Instanz zu extrahieren. Sie nutzen dazu bekannte Entdeckungstechniken aus verwandten Arbeiten und ergänzen diese um algorithmische Paradigmen wie Teile-und-Herrsche, hybrides Suchen, Progressivität, Speichersensibilität, Parallelisierung und zusätzliche Streichungsregeln. Unsere Experimente zeigen, dass die vorgeschlagenen Algorithmen mit den neuen Techniken nicht nur um Größenordnungen schneller sind als alle verwandten Arbeiten, sie erweitern auch aktuelle Beschränkungen deutlich. Sie können insbesondere nun Datensätze realer Größe, d.h. mehrerer Gigabyte Größe mit vernünftigem Speicher- und Zeitverbrauch verarbeiten. Aufgrund der praktischen Relevanz von Data Profiling hat die Industrie verschiedene Profiling Werkzeuge entwickelt, die Informatiker in ihrer Suche nach Metadaten unterstützen sollen. Diese Werkzeuge bieten eine gute Unterstützung für die Berechnung einfacher Statistiken. Sie sind auch in der Lage einzelne Abhängigkeiten zu validieren, allerdings mangelt es ihnen an Funktionen zur echten Entdeckung von Metadaten, obwohl grundlegende Entdeckungstechniken schon mehr als 15 Jahre bekannt sind. Um diese Lücke zu schließen haben wir Metanome entwickelt, eine erweiterbare Profiling Plattform, die nicht nur unsere eigenen Algorithmen sondern auch viele weitere Algorithmen anderer Forscher integriert. Mit Metanome machen wir unsere Forschungsergebnisse für alle Informatiker und IT-Fachkräfte zugänglich, die ein modernes Data Profiling Werkzeug benötigen. Neben der tatsächlichen Metadaten-Entdeckung bietet die Plattform zusätzlich Unterstützung bei der Bewertung und Visualisierung gefundener Metadaten. Alle syntaktisch korrekten Metadaten effizient finden zu können führt natürlicherweise zur Folgeaufgabe daraus nur die semantisch bedeutsamen Teile zu extrahieren. Das ist eine Herausforderung, weil zum einen die Mengen der gefundenen Metadaten überraschenderweise groß sind (manchmal größer als der untersuchte Datensatz selbst) und zum anderen die Entscheidung über die Anwendungsfall-spezifische semantische Relevanz einzelner Metadaten-Aussagen schwierig ist. Um zu zeigen, dass die Vollständigkeit der Metadaten sehr wertvoll für ihre Nutzung ist, veranschaulichen wir die effiziente Verarbeitung und effektive Bewertung von funktionalen Abhängigkeiten am Anwendungsfall Schema Normalisierung. KW - data profiling KW - functional dependency KW - unique column combination KW - inclusion dependency KW - dependency KW - metanome KW - metadata KW - discovery KW - hybrid KW - divide-and-conquer KW - Profilerstellung für Daten KW - funktionale Abhängigkeit KW - eindeutige Spaltenkombination KW - Inklusionsabhängigkeit KW - Abhängigkeit KW - Metanome KW - Metadaten KW - Entdeckung KW - Hybrid KW - Teile und Herrsche Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406705 ER - TY - THES A1 - Paul, Fabian T1 - Markov state modeling of binding and conformational changes of proteins T1 - Markow-Modellierung von Bindung und Konformationsänderungen bei Proteinen N2 - Proteins are molecules that are essential for life and carry out an enormous number of functions in organisms. To this end, they change their conformation and bind to other molecules. However, the interplay between conformational change and binding is not fully understood. In this work, this interplay is investigated with molecular dynamics (MD) simulations of the protein-peptide system Mdm2-PMI and by analysis of data from relaxation experiments. The central task it to uncover the binding mechanism, which is described by the sequence of (partial) binding events and conformational change events including their probabilities. In the simplest case, the binding mechanism is described by a two-step model: binding followed by conformational change or conformational change followed by binding. In the general case, longer sequences with multiple conformational changes and partial binding events are possible as well as parallel pathways that differ in their sequences of events. The theory of Markov state models (MSMs) provides the theoretical framework in which all these cases can be modeled. For this purpose, MSMs are estimated in this work from MD data, and rate equation models, which are related to MSMs, are inferred from experimental relaxation data. The MD simulation and Markov modeling of the PMI-Mdm2 system shows that PMI and Mdm2 can bind via multiple pathways. A main result of this work is a dissociation rate on the order of one event per second, which was calculated using Markov modeling and is in agreement with experiment. So far, dissociation rates and transition rates of this magnitude have only been calculated with methods that speed up transitions by acting with time-dependent, external forces on the binding partners. The simulation technique developed in this work, in contrast, allows the estimation of dissociation rates from the combination of free energy calculation and direct MD simulation of the fast binding process. Two new statistical estimators TRAM and TRAMMBAR are developed to estimate a MSM from the joint data of both simulation types. In addition, a new analysis technique for time-series data from chemical relaxation experiments is developed in this work. It allows to identify one of the above-mentioned two-step mechanisms as the mechanism that underlays the data. The new method is valid for a broader range of concentrations than previous methods and therefore allows to choose the concentrations such that the mechanism can be uniquely identified. It is successfully tested with data for the binding of recoverin to a rhodopsin kinase peptide. N2 - Proteine sind für das Leben essentielle Moleküle, die eine Vielzahl von Funktionen in Organismen ausüben. Dazu ändern sie ihre Konformation und binden an andere Moleküle. Jedoch ist das Zusammenspiel zwischen Konformationsänderung und Bindung nicht vollständig verstanden. In dieser Arbeit wird dieses Zusammenspiel mit Molekulardynamik-Simulationen (MD) des Protein-Peptid-Systems Mdm2-PMI und mit der Analyse von Daten aus Relaxationsexperimenten untersucht. Die zentrale Aufgabe ist, den Bindungsmechanismus aufzudecken, welcher durch die Reihenfolge von (partiellen) Bindungsereignissen und Konformationsänderungsereignissen beschrieben wird, inklusive der Wahrscheinlichkeiten dieser Ereignisse. Im einfachsten Fall lässt sich der Bindungsmechanismus durch ein Zwei-Schritt-Modell beschreiben: erst Bindung, dann Konformationsänderung oder erst Konformationsänderung und dann Bindung. Im allgemeinen Fall sind längere Schrittfolgen mit mehreren Konformationsänderungen und partiellen Bindungsereignissen möglich, ebenso wie parallele Wege, die sich in ihrer Schrittfolge unterscheiden. Die Theorie der Markow-Modelle (MSM) bildet den theoretischen Rahmen, in dem alle diese Fälle modelliert werden können. Dazu werden in dieser Arbeit MSMs aus MD-Daten geschätzt und Ratengleichungsmodelle, die mit MSMs verwandt sind, aus experimentellen Relaxationsdaten abgeleitet. Die MD-Simulation und Markow-Modellierung des PMI-Mdm2-Systems zeigt, dass PMI und Mdm2 auf verschiedenen Wegen binden können. Ein Hauptergebnis dieser Arbeit ist die durch Markow-Modellierung berechnete Dissoziationsrate von der Größenordnung von einem Ereignis pro Sekunde in Übereinstimmung mit experimentellen Daten. Dissoziations- und Übergangsraten in dieser Größenordnung wurden bisher nur mit Methoden berechnet, die Übergänge beschleunigen, indem mit zeitabhängigen, externen Kräften auf die Bindungspartner eingewirkt wird. Die in dieser Arbeit entwickelte Simulationstechnik dagegen erlaubt die Schätzung von Dissoziationsraten aus der Kombination von Freien-Energie-Rechnungen und direkter MD-Simulation des schnellen Bindungsprozesses. Zwei neue statistische Schätzer, TRAM und TRAMMBAR wurden entwickelt um ein MSM aus dem Gesamtdatensatz aus beiden Simulationstypen zu schätzen. Zudem wird in dieser Arbeit eine neue Analysetechnik für Zeitreihen aus chemischen Relaxationsexperimenten entwickelt. Sie ermöglicht es einen der beiden oben erwähnten Zwei-Schritt-Mechanismen als den den Daten zugrundeliegenden Mechanismus zu identifizieren. Die neue Methode ist für einen größeren Konzentrationsbereich gültig als frühere Methoden und erlaubt es daher, die Konzentrationen so zu wählen, dass der Mechanismus eindeutig identifiziert werden kann. Sie wurde erfolgreich mit Daten für die Bindung von Recoverin an ein Rhodopsinkinasenpeptid getestet. KW - protein-protein interaction KW - Protein-Protein-Interaktion KW - conformational selection KW - Konformationsselektion KW - induced fit KW - induzierte Passform KW - Markov state models KW - Markowketten KW - importance sampling KW - protein kinetics KW - Proteinkinetik KW - stopped-flow KW - flussunterbrechende Analyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404273 ER - TY - THES A1 - Pavashe, Prashant T1 - Synthesis and transformations of 2-thiocarbohydrates T1 - Synthese und Transformationen von 2-Thiokohlenhydraten BT - a practical approach for functionalization of thiosugars BT - ein Praktischer Zugang zur Funktionalisierung von Thiozuckern N2 - I. Ceric ammonium nitrate (CAN) mediated thiocyanate radical additions to glycals In this dissertation, a facile entry was developed for the synthesis of 2-thiocarbohydrates and their transformations. Initially, CAN mediated thiocyanation of carbohydrates was carried out to obtain the basic building blocks (2-thiocyanates) for the entire studies. Subsequently, 2-thiocyanates were reduced to the corresponding thiols using appropriate reagents and reaction conditions. The screening of substrates, stereochemical outcome and the reaction mechanism are discussed briefly (Scheme I). Scheme I. Synthesis of the 2-thiocyanates II and reductions to 2-thiols III & IV. An interesting mechanism was proposed for the reduction of 2-thiocyanates II to 2-thiols III via formation of a disulfide intermediate. The water soluble free thiols IV were obtained by cleaving the thiocyanate and benzyl groups in a single step. In the subsequent part of studies, the synthetic potential of the 2-thiols was successfully expanded by simple synthetic transformations. II. Transformations of the 2-thiocarbohydrates The 2-thiols were utilized for convenient transformations including sulfa-Michael additions, nucleophilic substitutions, oxidation to disulfides and functionalization at the anomeric position. The diverse functionalizations of the carbohydrates at the C-2 position by means of the sulfur linkage are the highlighting feature of these studies. Thus, it creates an opportunity to expand the utility of 2-thiocarbohydrates for biological studies. Reagents and conditions: a) I2, pyridine, THF, rt, 15 min; b) K2CO3, MeCN, rt, 1 h; c) MeI, K2CO3, DMF, 0 °C, 5 min; d) Ac2O, H2SO4 (1 drop), rt, 10 min; e) CAN, MeCN/H2O, NH4SCN, rt, 1 h; f) NaN3, ZnBr2, iPrOH/H2O, reflux, 15 h; g) NaOH (1 M), TBAI, benzene, rt, 2 h; h) ZnCl2, CHCl3, reflux, 3 h. Scheme II. Functionalization of 2-thiocarbohydrates. These transformations have enhanced the synthetic value of 2-thiocarbohydrates for the preparative scale. Worth to mention is the Lewis acid catalyzed replacement of the methoxy group by other nucleophiles and the synthesis of the (2→1) thiodisaccharides, which were obtained with complete β-selectivity. Additionally, for the first time, the carbohydrate linked thiotetrazole was synthesized by a (3 + 2) cycloaddition approach at the C-2 position. III. Synthesis of thiodisaccharides by thiol-ene coupling. In the final part of studies, the synthesis of thiodisaccharides by a classical photoinduced thiol-ene coupling was successfully achieved. Reagents and conditions: 2,2-Dimethoxy-2-phenylacetophenone (DPAP), CH2Cl2/EtOH, hv, rt. Scheme III. Thiol-ene coupling between 2-thiols and exo-glycals. During the course of investigations, it was found that the steric hindrance plays an important role in the addition of bulky thiols to endo-glycals. Thus, we successfully screened the suitable substrates for addition of various thiols to sterically less hindered alkenes (Scheme III). The photochemical addition of 2-thiols to three different exo-glycals delivered excellent regio- and diastereoselectivities as well as yields, which underlines the synthetic potential of this convenient methodology. N2 - I. Cerammoniumnitrat (CAN) vermittelte Thiocyanat Radikaladditionen an Glycale In dieser Dissertation wurde ein einfacher synthetischer Zugang zu 2-Thiokohlenhydraten und dessen Transformationsprodukten entwickelt. Zu Beginn wurden CAN vermittelte Funktionalisierungen von Kohlenhydraten mit Thiocyanat durchgeführt, um die notwendigen Ausgangsverbindungen (2-Thiocyanate) für die weiteren Studien zu erhalten. Im Folgenden wurden diese 2-Thiocyanate mit entsprechenden Reagenzien unter geeigneten Reduktionsbedingungen zu den Thiolen reduziert. Das Screening der Substrate, der stereochemische Verlauf und der Reaktionsmechanismus wird kurz diskutiert (Schema I). Schema I. Synthese der 2-Thiocyanate II und Reduktionen zu den 2-Thiolen III & IV. Es wurde ein interessanter Mechanismus für die Reduktion der 2-Thiocyanate II zu den 2-Thiolen III via Bildung von Disulfid-Zwischenstufen vorgeschlagen. Die wasserlöslichen freien Thiole IV wurden durch Spaltung der Thiocyanat- und Benzylgruppen in einem Einzelschritt freigesetzt. Im darauf folgenden Teil der Arbeit wurde das synthetische Potenzial der 2-Tiole erfolgreich durch einfache synthetische Transformationen erweitert. II. Transformationen der 2-Thiokohlenhydrate Die 2-Thiole wurden für die Ausführung praktischer Transformationen eingesetzt, die Sulfa-Michael Additionen, nukleophile Substitutionen, Oxidationen zu Disulfiden und Funktionalisierungen an der anomeren Position beinhalten. Die mannigfaltigen Funktionalisierungen der Kohlenhydrate an den C-2 Positionen mittels der Schwefel Gruppe ist das hervortretende Merkmal dieser Arbeit. Reagenzien und Reaktionsbedingungen: a) I2, Pyridin, THF, rt, 15 min; b) K2CO3, MeCN, rt, 1 h; c) MeI, K2CO3, DMF, 0 °C, 5 min; d) Ac2O, H2SO4 (1 Tropfen), rt, 10 min; e) CAN, MeCN/H2O, NH4SCN, rt, 1 h; f) NaN3; ZnBr2; iPrOH/H2O, Rückfluss 15 h; g) NaOH (1 M), TBAI, Benzol, rt 2 h; h) ZnCl2, CHCl3, Rückfluss, 3 h. Schema II. Funktionalisierungen von 2-Thiokohlenhydraten Daraus eröffnet sich die Möglichkeit, den Nutzwert von 2-Thiokohlenhydraten auf biologische Studien auszuweiten. Diese Transformationen haben den synthetischen Wert von 2-Thiokohlenhydraten für den präparativen Maßstab gesteigert. Hervorzuheben ist hier der Lewis Säure katalysierte Austausch der Methoxygruppe durch weitere Nukleophile und die Synthese von (2→1) Thiodisacchariden, die mit quantitativer β-Selektivität erhalten wurden. Zusätzlich wurde zum ersten Mal ein Zucker gebundenes Thiotetrazol über eine (3+2) Cycloaddition an der C-2 Position synthetisiert. III. Synthese von Thiodisacchariden durch Thiol-En-Kopplungen Im letzten Teil der Arbeit gelang die Synthese von Thiodisacchariden durch eine klassische Thiol-En-Kopplung. Reagenzien und Reaktionsbedingungen: 2,2-Dimethoxy-2-phenylacetophenone (DPAP), CH2Cl2/EtOH, hv, rt. Schema III. Thiol-En-Kopplungen zwischen 2-Thiolen und exo-Glycalen. Im Verlauf der Untersuchungen wurde aufgezeigt, dass die räumlische Hinderung bei der Addition von sterisch anspruchsvollen 2-Thiolen an endo-Glycale eine wichtige Rolle spielt. Dazu erprobten wir geeignete Substrate zur Addition von 2-Thiolen an sterisch wenig anspruchsvolle Alkene (Schema III). Die photochemische Addition der 2-Thiole an drei verschiedene exo-Glycale lieferte exzellente Regio- und Diastereoselektivitäten und Ausbeuten, was das synthetische Potenzial dieser bequem durchführbaren Methodik unterstreicht. KW - carbohydrates KW - 2-Thiodisaccharides KW - radical reactions KW - Ceric Ammonium Nitrate (CAN) KW - photochemistry KW - Kohlenhydrate KW - 2-Thiodisaccharide KW - Radikalreaktionen KW - Cer Ammonium Nitrat (CAN) KW - Photochemie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397739 ER - TY - THES A1 - Peldszus, Andreas T1 - Automatic recognition of argumentation structure in short monological texts N2 - The aim of this thesis is to develop approaches to automatically recognise the structure of argumentation in short monological texts. This amounts to identifying the central claim of the text, supporting premises, possible objections, and counter-objections to these objections, and connecting them correspondingly to a structure that adequately describes the argumentation presented in the text. The first step towards such an automatic analysis of the structure of argumentation is to know how to represent it. We systematically review the literature on theories of discourse, as well as on theories of the structure of argumentation against a set of requirements and desiderata, and identify the theory of J. B. Freeman (1991, 2011) as a suitable candidate to represent argumentation structure. Based on this, a scheme is derived that is able to represent complex argumentative structures and can cope with various segmentation issues typically occurring in authentic text. In order to empirically test our scheme for reliability of annotation, we conduct several annotation experiments, the most important of which assesses the agreement in reconstructing argumentation structure. The results show that expert annotators produce very reliable annotations, while the results of non-expert annotators highly depend on their training in and commitment to the task. We then introduce the 'microtext' corpus, a collection of short argumentative texts. We report on the creation, translation, and annotation of it and provide a variety of statistics. It is the first parallel corpus (with a German and English version) annotated with argumentation structure, and -- thanks to the work of our colleagues -- also the first annotated according to multiple theories of (global) discourse structure. The corpus is then used to develop and evaluate approaches to automatically predict argumentation structures in a series of six studies: The first two of them focus on learning local models for different aspects of argumentation structure. In the third study, we develop the main approach proposed in this thesis for predicting globally optimal argumentation structures: the 'evidence graph' model. This model is then systematically compared to other approaches in the fourth study, and achieves state-of-the-art results on the microtext corpus. The remaining two studies aim to demonstrate the versatility and elegance of the proposed approach by predicting argumentation structures of different granularity from text, and finally by using it to translate rhetorical structure representations into argumentation structures. N2 - Ziel dieser Arbeit ist die Entwicklung von Methoden zur automatischen Erkennung der Argumentationsstruktur in kurzen, monologischen Texten. Dies umfasst einerseits, die zentrale These des Textes, stützende Prämissen, mögliche Einwände und Widersprüche gegen diese zu identifizieren. Andererseits gilt es, diese Elemente in einer Gesamtstruktur zu verbinden, die die im Text vorgebrachte Argumentation angemessen beschreibt. Hierzu muss zuerst eine geeignete Darstellung der Argumentationsstruktur gefunden werden. Anhand einer Reihe von Anforderungen wird die Literatur zu Theorien der Diskurs- sowie der Argumentationsstruktur systematisch ausgewertet. Die Theorie von J. B. Freeman (1991, 2011) erweist sich hierbei als geeigneter Kandidat zur Repräsentation von Argumentationsstruktur. Darauf aufbauend wird ein Annotationsschema abgeleitet, welches auch komplexe Strukturen klar darstellen und mit verschiedenen, für authentischen Text typischen Segmentierungsproblemen umgehen kann. Um das Schema hinsichtlich der Zuverlässigkeit der Annotation empirisch zu testen, werden mehrere Annotationsexperimente durchgeführt, von denen das wichtigste die Übereinstimmung bei der Rekonstruktion der Argumentationsstruktur erfasst. Die Ergebnisse zeigen, dass Fachexperten sehr verlässlich annotieren, während die Ergebnisse von Nicht-Experten in hohem Maße vom Training und ihrem Engagement für die Aufgabe abhängen. Schließlich wird das "microtext"-Korpus vorgestellt, eine Sammlung kurzer argumentativer Texte. Die Erstellung, Übersetzung und Annotation wird beschrieben, die Strukturen statistisch ausgewertet. Es handelt sich um das erste mit Argumentationsstrukturen annotierte Parallelkorpus (in Deutsch und Englisch) und -- dank der Arbeit unserer Kollegen -- auch um das erste, das mit verschiedenartigen Diskursstrukturen annotiert wurde. In einer Reihe von sechs Studien werden dann Methoden zur automatischen Erkennung von Argumentationsstrukturen entwickelt und am Korpus erprobt: Die ersten beiden konzentrieren sich auf das Lernen lokaler Modelle für einzelne Aspekte der Argumentationsstruktur. In der dritten Studie wird der in dieser Dissertation vorgeschlagene Ansatz entwickelt: das "Evidenzgraph"-Modell, mit dem global optimale Argumentationsstrukturen erkannt werden können. Dieses wird dann in der vierten Studie systematisch mit anderen Ansätzen verglichen und erzielt beste Ergebnisse auf dem microtext-Korpus. Die verbleibenden zwei Studien zielen darauf ab, die Vielseitigkeit und Eleganz des Ansatzes zu demonstrieren, z.B. bei der Ableitung von Argumentationsstrukturen unterschiedlicher Granularität oder bei der Übersetzung rhetorischer Strukturen in Argumentationsstrukturen. T2 - Automatische Erkennung der Argumentationsstruktur in kurzen monologischen Texten KW - argumentation KW - argumentation structure KW - discourse structure KW - argument mining KW - argumentation mining KW - argumentation structure parsing KW - discourse parsing KW - annotation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421441 ER - TY - THES A1 - Pédèches, Laure T1 - Stochastic models for collective motions of populations T1 - Modèles stochastiques pour des mouvements collectifs de populations T1 - Stochastisches Modell für kollektive Bewegung von Populationen N2 - Stochastisches Modell für kollektive Bewegung von Populationen In dieser Doktorarbeit befassen wir uns mit stochastischen Systemen, die eines der mysteriösesten biologischen Phänomene als Modell darstellen: die kollektive Bewegung von Gemeinschaften. Diese werden bei Vögel- und Fischschwärmen, aber auch bei manchen Bakterien, Viehherden oder gar bei Menschen beobachtet. Dieser Verhaltenstyp spielt ebenfalls in anderen Bereichen wie Finanzwesen, Linguistik oder auch Robotik eine Rolle. Wir nehmen uns der Dynamik einer Gruppe von N Individuen, insbesondere zweier asymptotischen Verhaltenstypen an. Einerseits befassen wir uns mit den Eigenschaften der Ergodizität in Langzeit: Existenz einer invarianten Wahrscheinlichkeitsverteilung durch Ljapunow-Funktionen, und Konvergenzrate der Übergangshalbgruppe gegen diese Wahrscheinlichkeit. Eine ebenfalls zentrale Thematik unserer Forschung ist der Begriff Flocking: es wird damit definiert, dass eine Gruppe von Individuen einen dynamischen Konsens ohne hierarchische Struktur erreichen kann; mathematisch gesehen entspricht dies der Aneinanderreihung der Geschwindigkeiten und dem Zusammenkommen des Schwarmes. Andererseits gehen wir das Phänomen der "Propagation of Chaos" an, wenn die Anzahl N der Teilchen ins Unendliche tendiert: die Bewegungen der jeweiligen Individuen werden asymptotisch unabhängig. Unser Ausgangspunkt ist das Cucker-Smale-Modell, ein deterministisches kinetisches Molekular-Modell für eine Gruppe ohne hierarchische Struktur. Die Wechselwirkung zwischen zwei Teilchen variiert gemäß deren "Kommunikationsrate", die wiederum von deren relativen Entfernung abhängt und polynomisch abnimmt. Im ersten Kapitel adressieren wir das asymptotische Verhalten eines Cucker-Smale-Modells mit Rauschstörung und dessen Varianten. Kapitel 2 stellt mehrere Definitionen des Flockings in einem Zufallsrahmen dar: diverse stochastische Systeme, die verschiedenen Rauschformen entsprechen (die eine gestörte Umgebung, den "freien Willen" des jeweiligen Individuums oder eine unterbrochene Übertragung suggerieren) werden im Zusammenhang mit diesen Begriffen unter die Lupe genommen. Das dritte Kapitel basiert auf der "Cluster Expansion"-Methode aus der statistischen Mechanik. Wir beweisen die exponentielle Ergodizität von gewissen nicht-Markow-Prozessen mit nicht-glattem Drift und wenden diese Ergebnisse auf Störungen des Ornstein-Uhlenbeck-Prozesses an. Im letzten Teil, nehmen wir uns der zweidimensionalen parabolisch-elliptischen Gleichung von Keller-Segel an. Wir beweisen die Existenz einer Lösung, welche in gewisser Hinsicht einzig ist, indem wir, mittels Vergleich mit Bessel-Prozessen und der Dirichlet Formtheorie, mögliche Stoßtypen zwischen den Teilchen ermitteln. N2 - In this thesis, stochastic dynamics modelling collective motions of populations, one of the most mysterious type of biological phenomena, are considered. For a system of N particle-like individuals, two kinds of asymptotic behaviours are studied : ergodicity and flocking properties, in long time, and propagation of chaos, when the number N of agents goes to infinity. Cucker and Smale, deterministic, mean-field kinetic model for a population without a hierarchical structure is the starting point of our journey : the first two chapters are dedicated to the understanding of various stochastic dynamics it inspires, with random noise added in different ways. The third chapter, an attempt to improve those results, is built upon the cluster expansion method, a technique from statistical mechanics. Exponential ergodicity is obtained for a class of non-Markovian process with non-regular drift. In the final part, the focus shifts onto a stochastic system of interacting particles derived from Keller and Segel 2-D parabolicelliptic model for chemotaxis. Existence and weak uniqueness are proven. N2 - Dans cette thése, on s’intéresse á des systémes stochastiques modélisant un des phénoménes biologiques les plus mystérieux, les mouvements collectifs de populations. Pour un groupe de N individus, vus comme des particules sans poids ni volume, on étudie deux types de comportements asymptotiques : d’un côté, en temps long, les propriétés d’ergodicité et de flocking, de l’autre, quand le nombre de particules N tend vers l’infini, les phénoménes de propagation du chaos. Le modéle, déterministe, de Cucker-Smale, un modéle cinétique de champ moyen pour une population sans structure hiérarchique, est notre point de départ : les deux premiers chapitres sont consacrés á la compréhension de diverses dynamiques stochastiques qui s’en inspirent, du bruit étant rajouté sous différentes formes. Le troisiéme chapitre, originellement une tentative d’amélioration de ces résultats, est basé sur la méthode du développement en amas, un outil de physique statistique. On prouve l’ergodicité exponentielle de certains processus non-markoviens á drift non-régulier. Dans la derniére partie, on démontre l’existence d’une solution, unique dans un certain sens, pour un systéme stochastique de particules associé au mod`ele chimiotactique de Keller et Segel. KW - stochastic interacting particles KW - flocking KW - stochastisches interagierendes System KW - Flocking Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405491 ER - TY - THES A1 - Périllon, Cécile T1 - The effect of groundwater on benthic primary producers and their interaction T1 - Der Einfluss von Grundwasser auf benthische Primärproduzenten und ihre Interaktionen N2 - In littoral zones of lakes, multiple processes determine lake ecology and water quality. Lacustrine groundwater discharge (LGD), most frequently taking place in littoral zones, can transport or mobilize nutrients from the sediments and thus contribute significantly to lake eutrophication. Furthermore, lake littoral zones are the habitat of benthic primary producers, namely submerged macrophytes and periphyton, which play a key role in lake food webs and influence lake water quality. Groundwater-mediated nutrient-influx can potentially affect the asymmetric competition between submerged macrophytes and periphyton for light and nutrients. While rooted macrophytes have superior access to sediment nutrients, periphyton can negatively affect macrophytes by shading. LGD may thus facilitate periphyton production at the expense of macrophyte production, although studies on this hypothesized effect are missing. The research presented in this thesis is aimed at determining how LGD influences periphyton, macrophytes, and the interactions between these benthic producers. Laboratory experiments were combined with field experiments and measurements in an oligo-mesotrophic hard water lake. In the first study, a general concept was developed based on a literature review of the existing knowledge regarding the potential effects of LGD on nutrients and inorganic and organic carbon loads to lakes, and the effect of these loads on periphyton and macrophytes. The second study includes a field survey and experiment examining the effects of LGD on periphyton in an oligotrophic, stratified hard water lake (Lake Stechlin). This study shows that LGD, by mobilizing phosphorus from the sediments, significantly promotes epiphyton growth, especially at the end of the summer season when epilimnetic phosphorus concentrations are low. The third study focuses on the potential effects of LGD on submerged macrophytes in Lake Stechlin. This study revealed that LGD may have contributed to an observed change in macrophyte community composition and abundance in the shallow littoral areas of the lake. Finally, a laboratory experiment was conducted which mimicked the conditions of a seepage lake. Groundwater circulation was shown to mobilize nutrients from the sediments, which significantly promoted periphyton growth. Macrophyte growth was negatively affected at high periphyton biomasses, confirming the initial hypothesis. More generally, this thesis shows that groundwater flowing into nutrient-limited lakes may import or mobilize nutrients. These nutrients first promote periphyton, and subsequently provoke radical changes in macrophyte populations before finally having a possible influence on the lake’s trophic state. Hence, the eutrophying effect of groundwater is delayed and, at moderate nutrient loading rates, partly dampened by benthic primary producers. The present research emphasizes the importance and complexity of littoral processes, and the need to further investigate and monitor the benthic environment. As present and future global changes can significantly affect LGD, the understanding of these complex interactions is required for the sustainable management of lake water quality. N2 - Im Uferbereich von Seen bestimmen eine Vielzahl von Prozessen das ökologische Gefüge und die Wasserqualität. Grundwasserzustrom, welcher häufig im Uferbereich eines Sees auftritt, kann zum Import von Nährstoffen führen und so signifikant zur Eutrophierung eines Gewässers beitragen. Darüber hinaus bildet der Uferbereich von Seen das Habitat für benthische Primärproduzenten wie Makrophyten (Wasserpflanzen) und Periphyton (Aufwuchs), welche eine Schlüsselrolle im Nahrungsnetz von Seen einnehmen und deren Wasserqualität beeinflussen können. Der durch Grundwasser gesteuerte Eintrag von Nährstoffen kann sich unterschiedlich auf die um Licht und Nährstoffe konkurrierenden Makrophyten und Periphyton auswirken. Während Makrophyten häufig über Wurzeln verfügen und damit Nährstoffe aus dem Sediment aufnehmen, kann Periphyton zu einer Beschattung der Makrophyten beitragen. Grundwasserzustrom könnte deshalb durch Nährstoffzufuhr das Wachstum von Periphyton fördern und damit zu einer Abnahme der Makrophytenabundanz führen. Die in dieser Doktorarbeit vorgestellten Forschungsergebnisse zeigen den Einfluss von einströmendem Grundwasser in Seen auf Makrophyten und Periphyton, und insbesondere die Interaktionen zwischen diesen beiden benthischen Primärproduzenten. Dafür wurden Laborexperimente, sowie Feldexperimente und Messungen in einem oligo-mesotrophen, kalkreichen See miteinander kombiniert. In der ersten Studie wurden im Rahmen einer Literaturrecherche die Auswirkungen des Einstroms von Grundwasser auf das Wachstum von Makrophyten und Periphyton untersucht. Dafür wurden Einträge von Nährstoffen sowie anorganischem und organischem Kohlenstoff berücksichtigt und abschließend ein Konzept entwickelt, das die Interaktion zwischen benthischen Primärproduzenten betrachtet. Die zweite Studie zeigt den Einfluss von Grundwasser auf das Wachstum von Periphyton im geschichteten, oligo-mesotrophen, kalkreichen Stechlinsee (Brandenburg) auf der Basis von Freilanduntersuchungen und -experimenten. Es konnte nachgewiesen werden, dass einströmendes Grundwasser Phosphor aus dem Sediment mobilisiert und so das Wachstum von Periphyton signifikant fördert. Dies war insbesondere am Ende des Sommers relevant, wenn Phosphor im Epilimnion nur noch in sehr geringer Konzentration vorlag. Der Fokus der dritten Studie liegt auf den potenziellen Auswirkungen des Einstroms von Grundwasser auf die Makrophyten in flachen Litoralbereichen des Stechlinsees. Die in den letzten Jahrzehnten beobachteten Veränderungen in der Abundanz und Artenzusammensetzung der Makrophyten, insbesondere der Rückgang der Armleuchteralgen, könnten auch auf Veränderungen im Einstrom von Grundwasser zurückzuführen sein. In der letzten Studie wurden in einem Laborexperiment der Grundwasserzustrom ins Litoral simuliert, um die kombinierte Auswirkung auf Makrophyten- und Periphytonentwicklung unter kontrollierten Umweltbedingungen zu testen. Die Ergebnisse bestätigen die Hypothese, dass die durch den Grundwasserzustrom mobilisierten Nährstoffe aus dem Sediment das Wachstum von Periphyton fördern. Oberhalb eines Grenzwertes der Periphytonbiomasse wird die Entwicklung von Makrophyten behindert. Die vorliegende Arbeit zeigt, dass einströmendes Grundwasser zur Mobilisierung und zum Import von Nährstoffen in Seen führen kann und damit weitreichende Konsequenzen für das ökologische Gefüge und die Wasserqualität haben kann. Die grundwassergesteuerte Nährstoffzufuhr fördert das Wachstum von Periphyton und führt bei genügend großer Periphytonbiomasse zu Änderungen der Makrophytenpopulation bis hin zum Verlust. Die Arbeit verdeutlicht die Relevanz und Komplexität von Prozessen im Litoral von Seen und zeigt zugleich die Notwendigkeit auf, diese benthische Habitate tiefgreifender zu untersuchen. Da globale Veränderungen des Klimas einen weitreichenden Einfluss auf den Grundwassereinstrom in Seen haben können, ist es von entscheidender Bedeutung, die komplexen Auswirkungen dieser Prozesse zu verstehen, um einen nachhaltigen Schutz dieser Ökosysteme zu gewährleisten. KW - groundwater KW - littoral eutrophication KW - benthic primary producers KW - asymmetric competition KW - macrophytes KW - periphyton KW - Grundwasser KW - Makrophyten KW - Periphyton KW - Eutrophierung KW - Litoral KW - benthische Primärproduzenten KW - asymmetrische Konkurrenz Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406883 ER - TY - THES A1 - Reike, Dennis T1 - A look behind perceptual performance in numerical cognition T1 - Ein Blick hinter die perzeptuellen Leistungen numerischer Kognition N2 - Recognizing, understanding, and responding to quantities are considerable skills for human beings. We can easily communicate quantities, and we are extremely efficient in adapting our behavior to numerical related tasks. One usual task is to compare quantities. We also use symbols like digits in numerical-related tasks. To solve tasks including digits, we must to rely on our previously learned internal number representations. This thesis elaborates on the process of number comparison with the use of noisy mental representations of numbers, the interaction of number and size representations and how we use mental number representations strategically. For this, three studies were carried out. In the first study, participants had to decide which of two presented digits was numerically larger. They had to respond with a saccade in the direction of the anticipated answer. Using only a small set of meaningfully interpretable parameters, a variant of random walk models is described that accounts for response time, error rate, and variance of response time for the full matrix of 72 digit pairs. In addition, the used random walk model predicts a numerical distance effect even for error response times and this effect clearly occurs in the observed data. In relation to corresponding correct answers error responses were systematically faster. However, different from standard assumptions often made in random walk models, this account required that the distributions of step sizes of the induced random walks be asymmetric to account for this asymmetry between correct and incorrect responses. Furthermore, the presented model provides a well-defined framework to investigate the nature and scale (e.g., linear vs. logarithmic) of the mapping of numerical magnitude onto its internal representation. In comparison of the fits of proposed models with linear and logarithmic mapping, the logarithmic mapping is suggested to be prioritized. Finally, we discuss how our findings can help interpret complex findings (e.g., conflicting speed vs. accuracy trends) in applied studies that use number comparison as a well-established diagnostic tool. Furthermore, a novel oculomotoric effect is reported, namely the saccadic overschoot effect. The participants responded by saccadic eye movements and the amplitude of these saccadic responses decreases with numerical distance. For the second study, an experimental design was developed that allows us to apply the signal detection theory to a task where participants had to decide whether a presented digit was physically smaller or larger. A remaining question is, whether the benefit in (numerical magnitude – physical size) congruent conditions is related to a better perception than in incongruent conditions. Alternatively, the number-size congruency effect is mediated by response biases due to numbers magnitude. The signal detection theory is a perfect tool to distinguish between these two alternatives. It describes two parameters, namely sensitivity and response bias. Changes in the sensitivity are related to the actual task performance due to real differences in perception processes whereas changes in the response bias simply reflect strategic implications as a stronger preparation (activation) of an anticipated answer. Our results clearly demonstrate that the number-size congruency effect cannot be reduced to mere response bias effects, and that genuine sensitivity gains for congruent number-size pairings contribute to the number-size congruency effect. Third, participants had to perform a SNARC task – deciding whether a presented digit was odd or even. Local transition probability of irrelevant attributes (magnitude) was varied while local transition probability of relevant attributes (parity) and global probability occurrence of each stimulus were kept constantly. Participants were quite sensitive in recognizing the underlying local transition probability of irrelevant attributes. A gain in performance was observed for actual repetitions of the irrelevant attribute in relation to changes of the irrelevant attribute in high repetition conditions compared to low repetition conditions. One interpretation of these findings is that information about the irrelevant attribute (magnitude) in the previous trial is used as an informative precue, so that participants can prepare early processing stages in the current trial, with the corresponding benefits and costs typical of standard cueing studies. Finally, the results reported in this thesis are discussed in relation to recent studies in numerical cognition. N2 - Das Erkennen, Verstehen und Verwenden von Mengen sind beachtliche menschliche Fähigkeiten. Die Kommunikation numerischer Information fällt uns leicht, zudem beeinflussen numerische Informationen unser Handeln. Eine typische numerische Aufgabe ist der Mengenvergleich. Um solche Mengen zu beschreiben verwenden wir Ziffern als Symbole zur Bildung von Zahlen. Um Zahlen zu vergleichen, müssen wir auf die zuvor erlernte interne Zahlenrepräsentationen zurückgreifen. In dieser Dissertation werden drei Studien vorgestellt. Diese betrachten den Prozess des Zahlenvergleichs, die Interaktion numerischer und physikalischer Repräsentation und die strategische Nutzung numerischer Repräsentationen. In der ersten Studie sollten Versuchspersonen so schnell wie möglich die größere von zwei präsentierten Zahlen angeben. Sie sollten mit einer Sakkade in Richtung der größeren Zahl antworten. Eine Variante von Random Walk Modellen mit einem sparsamen Set an interpretierbaren Parameter wurde verwendet um die Reaktionszeit, die Fehlerrate und die Varianz der Reaktionszeit zu beschreiben. Auch für Fehlerzeiten sagt dieses Modell einen numerischen Distanzeffekt vorher, der sich in den Daten robust zeigt. Außerdem sind Fehlerzeiten schneller als korrespondierende Reaktionszeiten richtiger Antworten. Diese Asymmetrie lässt sich durch eine schiefe Schrittgrößenverteilung erklären, welche nicht zu den üblichen Standardannahmen von Random Walk Modellen gehört. Das vorgestellte Modell liefert einen definierten Rahmen um die Art und Skalierung (z.B. linear vs. logarithmisch) numerischer Repräsentationen zu untersuchen, wobei die Ergebnisse klar für eine logarithmische Skalierung sprechen. Abschließend wird ein Ausblick gegeben, wie dieses Modell helfen kann, komplexe Befunde (z.B. Geschwindigkeit vs. Genauigkeit) in Studien zu erklären, die Zahlenvergleiche als etabliertes Werkzeug verwenden. Außerdem beschreiben wir einen neuen okulomotorischen Effekt, den sakkadischen Overschoot Effekt. Für die zweite Studie wurde ein experimentelles Design entwickelt, das es ermöglicht die Signalentdeckungstheorie zu verwenden. Hierbei sollten Versuchspersonen die physikalische Größe von Ziffern beurteilen. Eine offene Frage ist, ob der Leistungsgewinn in (numerisch - physikalisch) kongruenten Bedingungen auf eine verbesserte Wahrnehmung oder auf einen numerisch induzierten Antwortbias zurückzuführen ist. Die Signalentdeckungstheorie ist das perfekte Werkzeug um zwischen diesen beiden Erklärungen zu unterscheiden. Dabei werden zwei Parameter beschrieben, die Sensitivität und der Antwortbias. Unsere Ergebnisse demonstrieren, dass der Zahlen-Größen Effekt nicht auf einen einfachen Antwortbias zurückzuführen ist. Vielmehr tragen wahre Sensitivitätsgewinne in kongruenten Bedingungen zur Entstehung des Zahlen-Größen Effekts bei. In der dritten Studie sollten die Versuchspersonen eine SNARC Aufgabe durchführen, wobei sie angeben sollten ob eine präsentierte Zahl gerade oder ungerade ist. Die lokale Wiederholungswahrscheinlichkeit des irrelevanten Attributes (Magnitude) wurde zwischen Versuchspersonen variiert. Die Versuchspersonen waren sensitiv für diese Wiederholungswahrscheinlichkeiten. Ein Leistungsgewinn zeigte sich bei tatsächlichen Wiederholungen des irrelevanten Attributes in der Bedingung mit hoher Wiederholungswahrscheinlichkeit des irrelevanten Attributes. Eine mögliche Interpretation ist, dass Informationen aus dem Vortrial als eine Art Hinweis betrachtet werden, so dass die Versuchspersonen im aktuellen Trial frühe Prozessstufen vorbereiten können, was zu entsprechenden Gewinnen und Kosten führt. Die in dieser Dissertation berichteten Ergebnisse werden abschließend diskutiert und in Relation zu aktuellen Studien im Bereich der numerischen Kognition gesetzt. KW - numerical cognition KW - mental number representation KW - numerische Kognition KW - mentale Zahlenrepräsentation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407821 ER - TY - THES A1 - Reyna González, Emmanuel T1 - Engineering of the microviridin post-translational modification enzymes for the production of synthetic protease inhibitors T1 - Manipulation der posttranslationalen Modifikationsenzyme von Microviridin zur Herstellung synthetischer Proteaseinhibitoren N2 - Natural products and their derivatives have always been a source of drug leads. In particular, bacterial compounds have played an important role in drug development, for example in the field of antibiotics. A decrease in the discovery of novel leads from natural sources and the hope of finding new leads through the generation of large libraries of drug-like compounds by combinatorial chemistry aimed at specific molecular targets drove the pharmaceutical companies away from research on natural products. However, recent technological advances in genetics, bioinformatics and analytical chemistry have revived the interest in natural products. The ribosomally synthesized and post-translationally modified peptides (RiPPs) are a group of natural products generated by the action of post-translationally modifying enzymes on precursor peptides translated from mRNA by ribosomes. The great substrate promiscuity exhibited by many of the enzymes from RiPP biosynthetic pathways have led to the generation of hundreds of novel synthetic and semisynthetic variants, including variants carrying non-canonical amino acids (ncAAs). The microviridins are a family of RiPPs characterized by their atypical tricyclic structure composed of lactone and lactam rings, and their activity as serine protease inhibitors. The generalities of their biosynthetic pathway have already been described, however, the lack of information on details such as the protease responsible for cleaving off the leader peptide from the cyclic core peptide has impeded the fast and cheap production of novel microviridin variants. In the present work, knowledge on leader peptide activation of enzymes from other RiPP families has been extrapolated to the microviridin family, making it possible to bypass the need of a leader peptide. This feature allowed for the exploitation of the microviridin biosynthetic machinery for the production of novel variants through the establishment of an efficient one-pot in vitro platform. The relevance of this chemoenzymatic approach has been exemplified by the synthesis of novel potent serine protease inhibitors from both rationally-designed peptide libraries and bioinformatically predicted microviridins. Additionally, new structure-activity relationships (SARs) could be inferred by screening microviridin intermediates. The significance of this technique was further demonstrated by the simple incorporation of ncAAs into the microviridin scaffold. N2 - Naturstoffe und ihre Derivate waren schon immer eine Quelle von Leitstrukturen. Insbesondere haben bakterielle Verbindungen eine wichtige Rolle bei der Arzneimittelentwicklung gespielt, zum Beispiel im Bereich der Antibiotika. Die Abnahme von Entdeckungen neuer Leitstrukturen aus natürlichen Quellen und die Hoffnung, neue Leitstrukturen in großen Bibliotheken medikamentenähnlicher Verbindungen zu finden, welche auf spezifische molekulare Ziele gerichtet sind und mithilfe kombinatorischer Chemie erstellt wurden, trieben die Pharmaunternehmen weg von der Naturstoffforschung. Allerdings haben moderne technologische Fortschritte in der Genetik, der Bioinformatik und der analytischen Chemie das Interesse an Naturstoffen wiederbelebt. Die ribosomal synthetisierten und posttranslational modifizierten Peptide (RiPPs) sind eine Gruppe von Naturstoffen, die durch das Einwirken posttranslational modifizierender Enzymen auf Präkursorpeptide entstehen, welche ihrerseits aus mRNA durch Translation an den Ribosomen hervorgehen. Die durch viele der Enzyme aus RiPP Biosynthesewege gezeigte große Substrat- Promiskuität führte zur Erzeugung hunderter neuartiger synthetischer und halbsynthetischer Varianten, einschließlich Varianten mit nicht-kanonischen Aminosäuren. Die Microviridine sind eine Familie von RiPPs, die durch ihre atypische trizyklische Struktur aus Lacton- und Lactamringen und ihre Aktivität als Serin-Protease-Inhibitoren gekennzeichnet sind. Die Grundlagen ihres Biosyntheseweges sind bereits beschrieben worden, aber wesentliche Fragestellungen, zum Beispiel die für die Spaltung des Leader-Peptids vom zyklischen Core- Peptid verantwortliche Protease betreffend, sind weitgehend ungeklärt und erschweren die schnelle und kostengünstige Herstellung neuer Microviridinvarianten. In der vorliegenden Arbeit wurde das Wissen über die durch Leader-Peptid Aktivierung von Enzymen aus anderen RiPP-Familien auf die Microviridinfamilie extrapoliert, wodurch es möglich wurde, die Notwendigkeit eines Leader-Peptids zu umgehen. Diese Besonderheit erlaubt nunmehr, die Microviridin-Biosynthese-Enzyme für die Herstellung von neuartigen Varianten durch die Etablierung einer effizienten in vitro Synthese-Plattform auszunutzen. Die Relevanz dieses chemoenzymatischen Ansatzes wurde durch die Synthese von neuen potenten Serin-Protease- Inhibitoren aus sowohl rational gestalteten Peptidbibliotheken als auch bioinformatisch vorhergesagten Microviridinen veranschaulicht. Darüber hinaus wurden durch das Screenen von Microviridinzwischenprodukten neue Struktur-Funktionsbeziehungen abgeleitet. Die Bedeutung dieser Technik wurde durch den einfachen Einbau von nicht-kanonischen Aminosäuren in das Microviridin-Gerüst weiter demonstriert. KW - RiPP KW - microviridin KW - biosynthesis KW - natural products KW - peptide KW - protease inhibitor KW - Biosynthese KW - Naturstoffe KW - cyanobacteria KW - Cyanobakterien KW - Microviridin KW - Protease-Inhibitoren Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406979 ER - TY - THES A1 - Ribeiro Martins, Renata Filipa T1 - Deciphering evolutionary histories of Southeast Asian Ungulates T1 - Entschlüsselung der Evolutionsgeschichte Südostasiatischer Huftiere BT - comparative phylogeography in a biodiversity hotspot BT - vergleichende Phylogeographie in einem Biodiversitaets-Hotspot N2 - Im Verlauf von Jahrmillionen gestalteten evolutionäre Kräfte die Verbreitung und genetische Variabilität von Arten, indem sie die Anpassungsfähigkeit und Überlebenswahrscheinlichkeit dieser Arten beeinflussten. Da Südostasien eine außerordentlich artenreiche Region darstellt, eignet sie sich besonders, um den Einfluss dieser Kräfte zu untersuchen. Historische Klimaveränderungen hatten dramatische Auswirkungen auf die Verfügbarkeit sowie die Verbreitung von Habitaten in Südostasien, weil hierdurch wiederholt das Festland mit sonst isolierten Inseln verbunden wurde. Dies beeinflusste nicht nur, wie Arten in dieser Region verbreitet sind, sondern ermöglichte auch eine zunehmende genetische Variabilität. Zwar ist es bekannt, dass Arten mit ähnlicher Evolutionsgeschichte unterschiedliche phylogeographische Muster aufweisen können. Die zugrundeliegenden Mechanismen sind jedoch nur gering verstanden. Diese Dissertation behandelt die Phylogeographie von drei Gruppen von Huftieren, welche im Süden und Südosten Asiens vorkommen. Dabei war das vornehmliche Ziel, zu verstehen, wie es zur Ausbildung verschiedener Arten sowie zu einer regionalen Verteilung von genetischer Variabilität kam. Hierfür untersuchte ich die mitochondrialen Genome alter Proben. Dadurch war es möglich, Populationen des gesamten Verbreitungsgebietes der jeweiligen Arten zu untersuchen – auch solche Populationen, die heutzutage nicht mehr existieren. Entsprechend der einzelnen Huftiergruppen ist diese Arbeit in drei Kapitel unterteilt: Muntjaks (Muntiacus sp.), Hirsche der Gattung Rusa und asiatische Nashörner. Alle drei Gruppen weisen eine Aufteilung in unterschiedliche Linien auf, was jeweils direkt auf Ereignisse des Pleistozäns zurückgeführt werden kann. Muntjaks sind eine weit verbreitete Art, die in verschiedensten Habitaten vorkommen kann. Ich wies nach, dass es in der Vergangenheit zu genetischem Austausch zwischen Populationen von verschiedenen Inseln des Sundalandes kam. Dies deutet auf die Fähigkeit von Muntjaks hin, sich an die ehemaligen Landbrücken anzupassen. Jedoch zeige ich auch, dass mindestens zwei Hindernisse bei ihrer Verbreitung existierten, wodurch es zu einer Differenzierung von Populationen kam: eine Barriere trennte Populationen des asiatischen Festlands von denen der Sundainseln, die andere isolierte sri-lankische von restlichen Muntjaks. Die zwei untersuchten Rusa-Arten weisen ein anderes Muster auf, was wiederum eine weitere Folge der pleistozänen Landbrücken darstellt. Beide Arten sind ausschließlich monophyletisch. Allerdings gibt es Anzeichen für die Hybridisierung dieser Arten auf Java, was durch eine frühere Ausbreitung des sambar (R. unicolor) gefördert wurde. Aufgrund dessen fand ich zudem, dass all jene Individuen der anderen Art, R. timorensis, die durch den Menschen auf die östlichen Sundainseln gebracht wurden, in Wahrheit Hybride sind. Für den dritten Teil war es mir möglich, Proben von Vertretern ausgestorbener Populationen vom asiatischen Festland des Sumatra- und des Java-Nashorns (Dicerorhinus sumatrensis und Rhinoceros sondaicus) zu analysieren. Die Ergebnisse meiner Arbeit belegen, dass die genetische Vielfalt dieser historischen Populationen bedeutend größer war als die der heutigen Nachkommen. Ihre jeweilige Evolutionsgeschichte korreliert stark mit pleistozänen Prozessen. Außerdem betonen meine Ergebnisse das enorme Ausmaß von verlorener genetischer Diversität dieser stark bedrohten Arten. Jede Art besitzt eine individuelle phylogeographische Geschichte. Ebenso fand ich aber auch allgemeingültige Muster von genetischer Differenzierung in allen Gruppen, welche direkt mit Ereignissen des Pleistozäns assoziiert werden können. Vergleicht man jedoch die einzelnen Ergebnisse der Arten, wird deutlich, dass die gleichen geologischen Prozesse nicht zwangsläufig in gleiche evolutive Ergebnisse resultieren. Einer der Gründe hierfür könnte zum Beispiel die unterschiedliche Durchlässigkeit der entstandenen Landkorridore des Sundaschelfs sein. Die Möglichkeit diese neuen Habitate zu nutzen und somit auch zu passieren steht im direkten Bezug zu den spezifischen ökologischen Bedürfnissen der Arten.Zusammenfassend leisten meine Erkenntnisse einen wichtigen Beitrag, die Evolution und geographische Aufteilung der genetischen Vielfalt in diesem Hotspot an Biodiversität zu verstehen. Obendrein können sie aber auch Auswirkungen auf die Erhaltung und systematische Klassifikation der untersuchten Arten haben. N2 - During the course of millions of years, evolutionary forces have shaped the current distribution of species and their genetic variability, by influencing their phylogeny, adaptability and probability of survival. Southeast Asia is an extraordinary biodiverse region, where past climate events have resulted in dramatic changes in land availability and distribution of vegetation, resulting likewise in periodic connections between isolated islands and the mainland. These events have influenced the way species are distributed throughout this region but, more importantly, they influenced the genesis of genetic diversity. Despite the observation that a shared paleo-history resulted in very diverse species phylogeographic patterns, the mechanisms behind these patterns are still poorly understood. In this thesis, I investigated and contrasted the phylogeography of three groups of ungulate species distributed within South and Southeast Asia, aiming to understand what mechanisms have shaped speciation and geographical distribution of genetic variability. For that purpose, I analysed the mitogenomes of historical samples, in order to account for populations from the entire range of species distributions – including populations that no longer exist. This thesis is organized in three manuscripts, which correspond to the three investigated groups: red muntjacs, Rusa deer and Asian rhinoceros. Red muntjacs are a widely distributed species and occur in very different habitats. We found evidence for gene-flow among populations of different islands, indicative of their ability to utilize the available land corridors. However, we described also the existence of at least two dispersal barriers that created population differentiation within this group; one isolated Sundaic and Mainland populations and the second separated individuals from Sri Lanka. Second, the two Rusa species investigated here revealed another consequence of the historical land connections. While the two species were monophyletic, we found evidence of hybridisation in Java, facilitated by the expansion of the widespread sambar, Rusa unicolor. Consequently, I found that all the individuals of Javan deer, R. timorensis which were transported to the east of Sundaland by humans, to be of hybrid descent. In the last manuscript, we were able to include samples from the extinct mainland populations of both Sumatran and Javan rhinoceros. The results revealed a much higher genetic diversity of the historical populations than ever reported for the contemporaneous survivors. Their evolutionary histories revealed a close relationship to climatic events of the Pleistocene but, more importantly, point out the vast extent of genetic erosion within these two endangered species. The specific phylogeographic history of the species showed some common patters of genetic differentiation that could be directly linked to the climatic and geological changes on the Sunda Shelf during the Pleistocene. However, by contrasting these results I discussed that the same geological events did not always result in similar histories. One obvious example was the different permeability of the land corridors of Sundaland, as the ability of each species to utilize this newly available land was directly related to their specific ecological requirements. Taken together, these results have an important contribution to the general understanding of evolution in this biodiversity hotspot and the main drivers shaping the distribution of genetic diversity, but could also have important consequences for taxonomy and conservation of the three investigated groups. KW - biogeography KW - Southeast Asia KW - ungulates KW - NGS KW - evolutionary history KW - Phylogeographie KW - Südostasien KW - Huftiere KW - Evolutionsgenetik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404669 ER - TY - THES A1 - Robaina Estevez, Semidan T1 - Context-specific metabolic predictions T1 - Kontextspezifische metabolische Vorhersagen BT - computational methods and applications BT - Berechnungsmethoden und Anwendungen N2 - All life-sustaining processes are ultimately driven by thousands of biochemical reactions occurring in the cells: the metabolism. These reactions form an intricate network which produces all required chemical compounds, i.e., metabolites, from a set of input molecules. Cells regulate the activity through metabolic reactions in a context-specific way; only reactions that are required in a cellular context, e.g., cell type, developmental stage or environmental condition, are usually active, while the rest remain inactive. The context-specificity of metabolism can be captured by several kinds of experimental data, such as by gene and protein expression or metabolite profiles. In addition, these context-specific data can be assimilated into computational models of metabolism, which then provide context-specific metabolic predictions. This thesis is composed of three individual studies focussing on context-specific experimental data integration into computational models of metabolism. The first study presents an optimization-based method to obtain context-specific metabolic predictions, and offers the advantage of being fully automated, i.e., free of user defined parameters. The second study explores the effects of alternative optimal solutions arising during the generation of context-specific metabolic predictions. These alternative optimal solutions are metabolic model predictions that represent equally well the integrated data, but that can markedly differ. This study proposes algorithms to analyze the space of alternative solutions, as well as some ways to cope with their impact in the predictions. Finally, the third study investigates the metabolic specialization of the guard cells of the plant Arabidopsis thaliana, and compares it with that of a different cell type, the mesophyll cells. To this end, the computational methods developed in this thesis are applied to obtain metabolic predictions specific to guard cell and mesophyll cells. These cell-specific predictions are then compared to explore the differences in metabolic activity between the two cell types. In addition, the effects of alternative optima are taken into consideration when comparing the two cell types. The computational results indicate a major reorganization of the primary metabolism in guard cells. These results are supported by an independent 13C labelling experiment. N2 - Alle lebenserhaltenden Prozesse werden durch tausende biochemische Reaktionen in der Zelle bestimmt, welche den Metabolismus charakterisieren. Diese Reaktionen bilden ein komplexes Netzwerk, welches alle notwendigen chemischen Verbindungen, die sogenannten Metabolite, aus einer bestimmten Menge an Ausgangsmolekülen produziert Zellen regulieren ihren Stoffwechsel kontextspezifisch, dies bedeutet, dass nur Reaktionen die in einem zellulären Kontext, zum Beispiel Zelltyp, Entwicklungsstadium oder verschiedenen Umwelteinflüssen, benötigt werden auch tatsächlich aktiv sind. Die übrigen Reaktionen werden als inaktiv betrachtet. Die Kontextspezifität des Metabolismus kann durch verschiedene experimentelle Daten, wie Gen- und Proteinexpressionen oder Metabolitprofile erfasst werden. Zusätzlich können diese Daten in Computersimulationen des Metabolismus integriert werden, um kontextspezifische (metabolische) Vorhersagen zu treffen. Diese Doktorarbeit besteht aus drei unabhängigen Studien, welche die Integration von kontextspezifischen experimentellen Daten in Computersimulationen des Metabolismus thematisieren. Die erste Studie beschreibt ein Konzept, basierend auf einem mathematischen Optimierungsproblem, welches es erlaubt kontextspezifische, metabolische Vorhersagen zu treffen. Dabei bietet diese vollautomatische Methode den Vorteil vom Nutzer unabhängige Parameter, zu verwenden. Die zweite Studie untersucht den Einfluss von alternativen optimalen Lösungen, welche bei kontextspezifischen metabolischen Vorhersagen generiert werden. Diese alternativen Lösungen stellen metabolische Modellvorhersagen da, welche die integrierten Daten gleichgut wiederspiegeln, sich aber grundlegend voneinander unterscheiden können. Diese Studie zeigt verschiedene Ansätze alternativen Lösungen zu analysieren und ihren Einfluss auf die Vorhersagen zu berücksichtigen. Schlussendlich, untersucht die dritte Studie die metabolische Spezialisierung der Schließzellen in Arabidopsis thaliana und vergleicht diese mit einer weiteren Zellart, den Mesophyllzellen. Zu diesem Zweck wurden die in dieser Doktorarbeit vorgestellten Methoden angewandt um metabolische Vorhersagen speziell für Schließzellen und Mesophyllzellen zu erhalten. Anschließend wurden die zellspezifischen Vorhersagen auf Unterschiede in der metabolischen Aktivität der Zelltypen, unter Berücksichtigung des Effekt von alternativen Optima, untersucht. Die Ergebnisse der Simulationen legen eine grundlegende Neuorganisation des Primärmetabolismus in Schließzellen verglichen mit Mesophyllzellen nahe. Diese Ergebnisse werden durch unabhängige 13C markierungs Experimente bestätigt. KW - systems biology KW - bioinformatics KW - metabolic networks KW - constraint-based modeling KW - data integration KW - Systemsbiologie KW - Bioinformatik KW - Stoffwechselnetze KW - Constraint-basierte Modellierung KW - Datenintegration Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401365 ER - TY - THES A1 - Roland, Steffen T1 - Charge carrier recombination and open circuit voltage in organic solar cells T1 - Ladungsträger Rekombination und Leerlaufspannung in organischen Solarzellen BT - from bilayer-model systems to hybrid multi-junctions BT - von Bilayer Modellsystemen zu hybriden Mehrschichtsolarzellen N2 - Tremendous progress in the development of thin film solar cell techniques has been made over the last decade. The field of organic solar cells is constantly developing, new material classes like Perowskite solar cells are emerging and different types of hybrid organic/inorganic material combinations are being investigated for their physical properties and their applicability in thin film electronics. Besides typical single-junction architectures for solar cells, multi-junction concepts are also being investigated as they enable the overcoming of theoretical limitations of a single-junction. In multi-junction devices each sub-cell operates in different wavelength regimes and should exhibit optimized band-gap energies. It is exactly this tunability of the band-gap energy that renders organic solar cell materials interesting candidates for multi-junction applications. Nevertheless, only few attempts have been made to combine inorganic and organic solar cells in series connected multi-junction architectures. Even though a great diversity of organic solar cells exists nowadays, their open circuit voltage is usually low compared to the band-gap of the active layer. Hence, organic low band-gap solar cells in particular show low open circuit voltages and the key factors that determine the voltage losses are not yet fully understood. Besides open circuit voltage losses the recombination of charges in organic solar cells is also a prevailing research topic, especially with respect to the influence of trap states. The exploratory focus of this work is therefore set, on the one hand, on the development of hybrid organic/inorganic multi-junctions and, on the other hand, on gaining a deeper understanding of the open circuit voltage and the recombination processes of organic solar cells. In the first part of this thesis, the development of a hybrid organic/inorganic triple-junction will be discussed which showed at that time (Jan. 2015) a record power conversion efficiency of 11.7%. The inorganic sub-cells of these devices consist of hydrogenated amorphous silicon and were delivered by the Competence Center Thin-Film and Nanotechnology for Photovoltaics in Berlin. Different recombination contacts and organic sub-cells were tested in conjunction with these inorganic sub-cells on the basis of optical modeling predictions for the optimal layer thicknesses to finally reach record efficiencies for this type of solar cells. In the second part, organic model systems will be investigated to gain a better understanding of the fundamental loss mechanisms that limit the open circuit voltage of organic solar cells. First, bilayer systems with different orientation of the donor and acceptor molecules were investigated to study the influence of the donor/acceptor orientation on non-radiative voltage loss. Secondly, three different bulk heterojunction solar cells all comprising the same amount of fluorination and the same polymer backbone in the donor component were examined to study the influence of long range electrostatics on the open circuit voltage. Thirdly, the device performance of two bulk heterojunction solar cells was compared which consisted of the same donor polymer but used different fullerene acceptor molecules. By this means, the influence of changing the energetics of the acceptor component on the open circuit voltage was investigated and a full analysis of the charge carrier dynamics was presented to unravel the reasons for the worse performance of the solar cell with the higher open circuit voltage. In the third part, a new recombination model for organic solar cells will be introduced and its applicability shown for a typical low band-gap cell. This model sheds new light on the recombination process in organic solar cells in a broader context as it re-evaluates the recombination pathway of charge carriers in devices which show the presence of trap states. Thereby it addresses a current research topic and helps to resolve alleged discrepancies which can arise from the interpretation of data derived by different measurement techniques. N2 - In der Photovoltaikforschung spielen neuartige Dünnschichtsolarzellen eine immer größere Rolle. Neben innovativen Design und Anwendungskonzepten sind Material und Kostenreduzierung in der Herstellung die größten Triebfedern für die Entwicklung neuer Technologien. Hier sind neben den vielversprechenden Perowskitsolarzellen insbesondere organische Solarzellen zu nennen, die sich durch ihre chemische Vielseitigkeit, einfache Verarbeitung und stetige Weiterentwicklung in Bezug auf ihre Effizienz auszeichnen. Diese Vielseitigkeit ermöglicht die Herstellung organischer Solarzellen mit unterschiedlicher spektraler Empfindlichkeit, was wiederum Vorteile für den Einsatz in seriengeschaltete Mehrschichtsolarzellen bietet. Diese erlauben es, fundamentale Limitierungen von Einschichtsolarzellsystemen zu überwinden. Der erste Teil dieser Arbeit befasst sich daher mit der Entwicklung einer neuartigen hybriden Multischichtsolarzelle, die sowohl aus anorganischen als auch organischen Subzellen besteht und zum Zeitpunkt ihrer Veröffentlichung einen neuen Effizienzrekord für diese Klasse von Solarzellen aufzeigte. Der zweite Teil der Arbeit befasst sich mit fundamentalen physikalischen Prozessen in organischen Solarzellen, da viele Funktionsmechanismen noch nicht im Detail geklärt sind. An verschiedenen organischen Modellsolarzellsystemen wurde daher unter anderem der Einfluss molekularer Orientierung von Donor- und Akzeptorkomponenten der Solarzelle oder der Einfluss von Fluorinierung des Donors auf die Leerlaufspannung der Solarzelle untersucht. Auf diese Weise konnten neue wichtige Erkenntnisse über den Einfluss von verschiedenen Verlustkanälen und der Energetik auf die Leerlaufspannung gewonnen werden. Der letzte Teil der Arbeit widmet sich der Entwicklung eines neuen Modells, welches den Rekombinationsprozess von Ladungen in einer bestimmten organischen Solarzelle beschreibt. Dieses neue Modell wurde anhand umfangreicher Experimente validiert und ermöglicht es, insbesondere den Einfluss freier und in sogenannten Fallenzuständen gefangener Ladungen auf die Rekombination zu trennen. Damit hat dieses Modell eine weitreichende Bedeutung, zum einen für die Beurteilung von typischen Rekombinationsexperimenten in organischen Solarzellen und zum anderen für die Bewertung des Einflusses von Fallenzuständen auf den Rekombinationsstrom. KW - organic solar cells KW - charge carrier recombination KW - open circuit voltage KW - hybrid multi-junction solar cell KW - organische Solarzellen KW - Ladungsträgerrekombination KW - Leerlaufspannung KW - hybride Mehrschichtsolarzellen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397721 ER - TY - THES A1 - Roßnagl, Susanne T1 - Zum Zusammenhang von Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen von Lehrkräften im Berufseinstieg im Allgemeinen Pflichtschulbereich in Niederösterreich T1 - Interrelations between the use of learning opportunities, social cooperation, individual determinants and self-assessments of competences from novice teachers at compulsory schools in Lower Austria BT - eine empirisch-quantitative Studie N2 - Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind. Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule. An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen. Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt. N2 - The current study concentrates on the career entry of teachers and examines all correlations between the use of learning opportunities, social cooperation, individual determinants and self-assessments of competences, which were analysed in this compilation for the first time. The literature research clarified, that the career entry is a very important phase for the job socialisation. The use of learning opportunities has not been empirically studied very often particularly not in the context of individual determinants and cooperation has mostly been studied only focusing the relevance for school. The empirical study involved 223 novice teachers from compulsory schools in Lower Austria, who must attend an obligatory supporting system in their first two years of their teaching career. This situation is unique in Austria, as only this federal state provides an obligatory career entry programme. As of 2019 there will be an induction phase for all teachers, who start their teaching career. With the help of structural equation models the correlations were analysed and it showed, that there were correlations between all component parts. At the end it was possible to deduct a new theory model for learning opportunities, which can be part of theories concerning professional development of competences and theories about learning in basic, advanced and vocational education and training. KW - Berufseinstieg KW - career entry of novice teachers KW - Lerngelegenheiten KW - learning opportunities KW - Professionalisierung KW - soziale Kooperation KW - social cooperation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398950 ER - TY - THES A1 - Santilli, Mario T1 - Higher order rectifiability in Euclidean space T1 - Rektifizierbarkeit höherer Ordnung in Euklidischen Räumen N2 - The first main goal of this thesis is to develop a concept of approximate differentiability of higher order for subsets of the Euclidean space that allows to characterize higher order rectifiable sets, extending somehow well known facts for functions. We emphasize that for every subset A of the Euclidean space and for every integer k ≥ 2 we introduce the approximate differential of order k of A and we prove it is a Borel map whose domain is a (possibly empty) Borel set. This concept could be helpful to deal with higher order rectifiable sets in applications. The other goal is to extend to general closed sets a well known theorem of Alberti on the second order rectifiability properties of the boundary of convex bodies. The Alberti theorem provides a stratification of second order rectifiable subsets of the boundary of a convex body based on the dimension of the (convex) normal cone. Considering a suitable generalization of this normal cone for general closed subsets of the Euclidean space and employing some results from the first part we can prove that the same stratification exists for every closed set. N2 - Das erste Ziel dieser Arbeit ist die Entwicklung eines Konzepts zur Beschreibung von Differenzierbarkeit höherer Ordnung für Teilmengen des euklidischen Raumes, welche es erlaubt von höherer Ordnung rektifizierbare Mengen zu charakterisieren. Wir betonen, dass wir für jede Teilmenge A des euklidischen Raumes und jede ganze Zahl k ≥ 2 ein approximatives Differenzial der Ordnung k einführen und beweisen, dass es sich dabei um eine Borelfunktion handelt deren Definitionsbereich eine (möglicherweise leere) Borelmenge ist. Unser Konzept könnte hilfreich für die Behandlung von höherer Ordnung rektifizierbarer Mengen in Anwendungen sein. Das andere Ziel ist die Verallgemeinerung auf beliebige abgeschlossene Mengen eines bekannten Satzes von Alberti über Rektifizierbarkeit zweiter Ordnung des Randes konvexer Körper. Für den Rand eines solchen konvexen Körper liefert Albertis Resultat eine Stratifikation durch von zweiter Ordnung rektifizierbare Teilmengen des Randes basierend auf der Dimension des (konvexen) Normalenkegels. Für eine geeignete Verallgemeinerung dieses Normalenkegels auf allgemeine abgeschlossene Teilmengen des euklidischen Raumes und unter Verwendung einiger Resultate aus dem ersten Teil können wir zeigen dass eine solche Stratifiaktion für alle abgeschlossenen Mengen existiert. KW - higher order rectifiability KW - approximate differentiability KW - Borel functions KW - normal bundle KW - coarea formula KW - Rektifizierbarkeit höherer Ordnung KW - approximative Differenzierbarkeit KW - Borel Funktionen KW - Coarea Formel KW - Normalenbündel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403632 ER - TY - THES A1 - Schibalski, Anett T1 - Statistical and process-based models for understanding species distributions in changing environments T1 - Statistische und prozessbasierte Modelle für die Verbreitung von Arten unter Umweltänderungen N2 - Understanding the distribution of species is fundamental for biodiversity conservation, ecosystem management, and increasingly also for climate impact assessment. The presence of a species in a given site depends on physiological limitations (abiotic factors), interactions with other species (biotic factors), migratory or dispersal processes (site accessibility) as well as the continuing effects of past events, e.g. disturbances (site legacy). Existing approaches to predict species distributions either (i) correlate observed species occurrences with environmental variables describing abiotic limitations, thus ignoring biotic interactions, dispersal and legacy effects (statistical species distribution model, SDM); or (ii) mechanistically model the variety of processes determining species distributions (process-based model, PBM). SDMs are widely used due to their easy applicability and ability to handle varied data qualities. But they fail to reproduce the dynamic response of species distributions to changing conditions. PBMs are expected to be superior in this respect, but they need very specific data unavailable for many species, and are often more complex and require more computational effort. More recently, hybrid models link the two approaches to combine their respective strengths. In this thesis, I apply and compare statistical and process-based approaches to predict species distributions, and I discuss their respective limitations, specifically for applications in changing environments. Detailed analyses of SDMs for boreal tree species in Finland reveal that nonclimatic predictors - edaphic properties and biotic interactions - are important limitations at the treeline, contesting the assumption of unrestricted, climatically induced range expansion. While the estimated SDMs are successful within their training data range, spatial and temporal model transfer fails. Mapping and comparing sampled predictor space among data subsets identifies spurious extrapolation as the plausible explanation for limited model transferability. Using these findings, I analyze the limited success of an established PBM (LPJ-GUESS) applied to the same problem. Examination of process representation and parameterization in the PBM identifies implemented processes to adjust (competition between species, disturbance) and missing processes that are crucial in boreal forests (nutrient limitation, forest management). Based on climatic correlations shifting over time, I stress the restricted temporal transferability of bioclimatic limits used in LPJ-GUESS and similar PBMs. By critically assessing the performance of SDM and PBM in this application, I demonstrate the importance of understanding the limitations of the applied methods. As a potential solution, I add a novel approach to the repertoire of existing hybrid models. By simulation experiments with an individual-based PBM which reproduces community dynamics resulting from biotic factors, dispersal and legacy effects, I assess the resilience of coastal vegetation to abrupt hydrological changes. According to the results of the resilience analysis, I then modify temporal SDM predictions, thereby transferring relevant process detail from PBM to SDM. The direction of knowledge transfer from PBM to SDM avoids disadvantages of current hybrid models and increases the applicability of the resulting model in long-term, large-scale applications. A further advantage of the proposed framework is its flexibility, as it is readily extended to other model types, disturbance definitions and response characteristics. Concluding, I argue that we already have a diverse range of promising modelling tools at hand, which can be refined further. But most importantly, they need to be applied more thoughtfully. Bearing their limitations in mind, combining their strengths and openly reporting underlying assumptions and uncertainties is the way forward. N2 - Wissen über die Verbreitung von Arten ist fundamental für die Erhaltung von Biodiversität, das Management von Ökosystemen und zunehmend auch für die Abschätzung der Folgen des Klimawandels. Das Vorkommen einer Art an einem Standort hängt ab von: physiologischen Grenzwerten (abiotischen Faktoren), Interaktionen mit anderen Arten (biotischen Faktoren), Ausbreitungsprozessen (Erreichbarkeit des Standorts) sowie Nachwirkungen vergangener Ereignisse, z.B. Störungen (Standortgeschichte). Modellansätze zur Vorhersage von Artverbreitungen (i) korrelieren entweder beobachtete Artvorkommen mit abiotischen Umweltvariablen und ignorieren damit biotische Interaktionen, Ausbreitung und Nachwirkungen (statistische Artverbreitungsmodelle, SDM); oder (ii) sie modellieren mechanistisch, wie sich die verschiedenen Prozesse auf Arten auswirken (prozessbasierte Modelle, PBM). SDMs sind weitverbreitet, da sie einfach anzuwenden sind und verschiedenste Datenqualitäten akzeptieren. Aber sie beschreiben nicht korrekt, wie Arten dynamisch auf Umweltänderungen reagieren. PBMs sind ihnen in dieser Hinsicht überlegen. Allerdings benötigen diese sehr spezifische Daten, welche für viele Arten nicht verfügbar sind. Zudem sind sie oft komplexer und benötigen mehr Rechenkapazität. Relativ neu ist der Ansatz des Hybridmodells, welches statistische und prozessbasierte Modelle verknüpft und so ihre jeweiligen Stärken vereint. In dieser Arbeit, nutze ich sowohl statistische als auch prozessbasierte Modelle, um die Verbreitung von Arten vorherzusagen, und ich diskutiere ihre jeweiligen Schwächen, besonders für die Anwendung im Klimawandelkontext. Eine detaillierte Analyse der SDMs für boreale Baumarten in Finnland zeigt, dass nicht-klimatische Variablen - Bodeneigenschaften und biotische Interaktionen - wichtige Faktoren an der Baumgrenze sind und daher die Reaktion von Arten auf Klimaänderungen beeinflussen. Während die SDMs innerhalb der Wertebereiche ihrer Trainingsdatensätze erfolgreich sind, scheitern Versuche, die Modelle auf andere Regionen oder in die Zukunft zu übertragen. Die Visualisierung und der Vergleich des abgedeckten Umweltraums zwischen den Teildatensätzen liefert eine plausible Erklärung: Extrapolation. Basierend auf diesen Ergebnissen, analysiere ich den bedingten Erfolg eines etablierten PBMs (LPJ-GUESS), das ich auf dieselbe Fragestellung anwende. Die Untersuchung der Prozessbeschreibungen im Modell sowie der Parametrisierung zeigen, dass bereits implementierte Prozesse angepasst werden müssen (Konkurrenz, Störungen) und dass für boreale Wälder entscheidende Prozesse fehlen (Nährstoffe, Bewirtschaftung). Mithilfe von klimatischen Schwellenwerten, die sich über die Zeit verschieben, betone ich die eingeschränkte Übertragbarkeit von bioklimatischen Grenzwerten in LPJ-GUESS und ähnlichen PBMs. Indem ich die Performance beider Methoden in dieser Anwendung kritisch beleuchte, zeige ich, wie wichtig es ist, sich der Grenzen jedes Modellansatzes bewusst zu sein. Als Lösungsmöglichkeit füge ich dem bestehenden Repertoire der Hybridmodelle einen neuen Ansatz hinzu. Mithilfe von Simulationsexperimenten mit einem individuenbasierten PBM, das erfolgreich die Dynamik von Artgemeinschaften beschreibt (resultierend aus biotischen Faktoren, Ausbreitung und Nachwirkungen), untersuche ich die Resilienz von Küstenvegetation auf abrupte Änderungen der Hydrologie. Entsprechend der Ergebnisse dieser Resilienzanalyse passe ich die zeitlichen Vorhersagen eines SDMs an und übertrage so das nötige Prozesswissen von PBM zu SDM. Die Übertragungsrichtung von PBM zu SDM umgeht die Nachteile bestehender Hybridmodelle und verbessert die Anwendbarkeit für langfristige, großflächige Berechnungen. Ein weiterer Vorteil des vorgestellten Konzepts ist seine Flexibilität, denn es lässt sich einfach auf andere Modellarten, andere Definitionen von Umweltstörungen sowie andere Vorhersagegrößen anwenden. Zusammenfassend argumentiere ich, dass uns bereits vielfältige, erfolgversprechende Modellansätze zur Verfügung stehen, die noch weiterentwickelt werden können. Vor allem aber müssen sie mit mehr Bedacht angewendet werden. Voran kommen wir, indem wir die Schwächen der Ansätze berücksichtigen, ihre Stärken in Hybridmodellen kombinieren und die zugrunde liegenden Annahmen und damit verbundene Unsicherheiten deutlich machen. KW - species distribution KW - Artverbreitung KW - climate change KW - Klimawandel KW - hybrid model KW - Hybridmodell Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401482 ER - TY - THES A1 - Schiprowski, Amelie T1 - Four empirical essays on the economics of job search T1 - Vier Empirische Studien zum Arbeitssuchverhalten N2 - Modern welfare states aim at designing unemployment insurance (UI) schemes which minimize the length of unemployment spells. A variety of institutions and incentives, which are embedded in UI schemes across OECD countries, reflect this attempt. For instance, job seekers entering UI are often provided with personal support through a caseworker. They also face the requirement to regularly submit a minimum number of job applications, which is typically enforced through benefit cuts in the case of non-compliance. Moreover, job seekers may systematically receive information on their re-employment prospects. As a consequence, UI design has become a complex task. Policy makers need to define not only the amount and duration of benefit payments, but also several other choice parameters. These include the intensity and quality of personal support through caseworkers, the level of job search requirements, the strictness of enforcement, and the information provided to unemployed individuals. Causal estimates on how these parameters affect re-employment outcomes are thus central inputs to the design of modern UI systems: how much do individual caseworkers influence the transition out of unemployment? Does the requirement of an additional job application translate into increased job finding? Do individuals behave differently when facing a strict versus mild enforcement system? And how does information on re-employment prospects influence the job search decision? This dissertation proposes four novel research designs to answer this question. Chapters one to three elaborate quasi-experimental identification strategies, which are applied to large-scale administrative data from Switzerland. They, respectively, measure how personal interactions with caseworkers (chapter one), the level of job search requirements (chapter two) and the strictness of enforcement (chapter three) affect re-employment outcomes. Chapter four proposes a structural estimation approach, based on linked survey and administrative data from Germany. It studies how over-optimism on future wage offers affects the decision to search for work, and how the provision of information changes this decision. N2 - In modernen Wohlfahrtsstaaten dient die Arbeitslosenversicherung zwei primären Zielen: Zum einen sollen Einkommensverluste abgefedert werden, die durch die Arbeitslosigkeit entstehen. Zum anderen soll die Re-integration in den Arbeitsmarkt mithilfe verschiedener Instrumente unterstützt werden. Die vorliegende Dissertation beschäftigt sich mit der Wirkung dieser Instrumente. Sie entwickelt vier Forschungsdesigns, um den kausalen Effekt verschiedener Anreize und Institutionen zu messen, die zahlreiche OECD-Länder in ihre Arbeitslosenversicherung integriert haben: Kapitel eins analysiert, wie die Anzahl und Qualität persönlicher Gespräche mit einem Fallberater die Dauer der Arbeitslosigkeit beeinflusst. Kapitel zwei misst den Effekt von Bewerbungen, die durch Suchvorgaben seitens der Arbeitslosenversicherung erwirkt werden. In Kapitel drei wird die Stringenz evaluiert, mit dem die Einhaltung der Vorgaben durchgesetzt werden. Schließlich untersucht Kapitel vier, wie Informationen über zukünftige Lohnperspektiven zu unterschiedlichen Zeitpunkten in der Arbeitslosigkeit wirken. Kapitel eins bis drei beruhen auf quasi-experimentellen Forschungsdesigns, wohingegen Kapitel vier einen strukturellen Schätzansatz verfolgt. Im Folgenden werden die vier Kapitel zusammengefasst und ihre Implikationen für die Gestaltung von Arbeitslosenversicherungssystemen sowie für weitere Politikfelder diskutiert. KW - unemployment insurance KW - job search KW - Arbeitslosenversicherung KW - Arbeitssuche KW - microeconometric analyses KW - mikrökonometrische Analysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413508 ER - TY - THES A1 - Schmidt, Katja T1 - Assessing, testing, and implementing socio-cultural valuation methods to operationalise ecosystem services in land use management T1 - Berücksichtigung, Überprüfung und Implentierung sozio-kultureller Bewertungsmethoden für die Operationalisierung von Ökosystemleistungen im Landschaftsmanagement N2 - Ecosystem services (ESs) are defined as the contributions that ecosystems make to human wellbeing and are increasingly being used as an approach to explore the importance of ecosystems for humans through their valuation. Although value plurality has been recognised long before the mainstreaming of ESs research, socio-cultural valuation is still underrepresented in ESs assessments. It is the central goal of this PhD dissertation to explore the ability of socio-cultural valuation methods for the operationalisation of ESs research in land management. To address this, I formulated three research objectives that are briefly outlined below and relate to the three studies conducted during this dissertation. The first objective relates to the assessment of the current role of socio-cultural valuation in ESs research. Human values are central to ESs research yet non-monetary socio-cultural valuation methods have been found underrepresented in the field of ESs science. In regard to the unbalanced consideration of value domains and conceptual uncertainties, I perform a systematic literature review aiming to answer the research question: To what extent have socio-cultural values been addressed in ESs assessments. The second objective aims to test socio-cultural valuation methods of ESs and their relevance for land use preferences by exploring their methodological opportunities and limitations. Socio-cultural valuation methods have only recently become a focus in ESs research and therefore bear various uncertainties in regard to their methodological implications. To overcome these uncertainties, I analysed responses to a visitor survey. The research questions related to the second objective were: What are the implications of different valuation methods for ESs values? To what extent are land use preferences explained by socio-cultural values of ESs? The third objective addressed in this dissertation is the implementation of ESs research into land management through socio-cultural valuation. Though it is emphasised that the ESs approach can assist decision making, there is little empirical evidence of the effect of ESs knowledge on land management. I proposed a way to implement transdisciplinary, spatially explicit research on ESs by answering the following research questions: Which landscape features underpinning ESs supply are considered in land management? How can participatory approaches accounting for ESs be operationalised in land management? The empirical research resulted in five main findings that provide answers to the research questions. First, this dissertation provides evidence that socio-cultural values are an integral part of ESs research. I found that they can be assessed for provisioning, regulating, and cultural services though they are linked to cultural services to a greater degree. Socio-cultural values have been assessed by monetary and non-monetary methods and their assessment is effectively facilitated by stakeholder participation. Second, I found that different methods of socio-cultural valuation revealed different information. Whereas rating revealed a general value of ESs, weighting was found more suitable to identify priorities across ESs. Value intentions likewise differed in the distribution of values, generally implying a higher value for others than for respondents themselves. Third, I showed that ESs values were distributed similarly across groups with differing land use preferences. Thus, I provided empirical evidence that ESs values and landscape values should not be used interchangeably. Fourth, I showed which landscape features important for ESs supply in a Scottish regional park are not sufficiently accounted for in the current management strategy. This knowledge is useful for the identification of priority sites for land management. Finally, I provide an approach to explore how ESs knowledge elicited by participatory mapping can be operationalised in land management. I demonstrate how stakeholder knowledge and values can be used for the identification of ESs hotspots and how these hotspots can be compared to current management priorities. This dissertation helps to bridge current gaps of ESs science by advancing the understanding of the current role of socio-cultural values in ESs research, testing different methods and their relevance for land use preferences, and implementing ESs knowledge into land management. If and to what extent ESs and their values are implemented into ecosystem management is mainly the choice of the management. An advanced understanding of socio-cultural valuation methods contributes to the normative basis of this management, while the proposal for the implementation of ESs in land management presents a practical approach of how to transfer this type of knowledge into practice. The proposed methods for socio-cultural valuation can support guiding land management towards a balanced consideration of ESs and conservation goals. N2 - Das Konzept der Ökosystemleistungen (ÖSL) wird in der Wissenschaft seit einigen Jahren vermehrt verwendet, um die Beiträge von Ökosystemen zum menschlichen Wohlbefinden zu bewerten. Das Konzept der ÖSL sieht vor, dass dabei viele verschiedene Wertkategorien gleichberechtigt zum Tragen kommen. Dazu gehören etwa ökonomische, ökologische und sozio-kulturelle Werte, die zu integrieren sind. Diesem Anspruch zum Trotz wird jedoch bislang der Bereich der sozio-kulturellen Werte zugunsten monetärer Werte in der Wissenschaft weitgehend vernachlässigt. Zudem müssen Wege gefunden werden, das Wissen über ÖSL und deren Werte in der Landschafts- und Raumplanung umzusetzen und damit praktisch nutzbar zu machen. Es ist das Ziel der vorliegenden Dissertation, die Eignung von sozio-kulturellen Bewertungsmethoden für die Operationalisierung von ÖSL in Landschafts- und Raumplanung zu untersuchen. Hierfür wurden drei Forschungsschwerpunkte verfolgt. (1) Es wurde untersucht, inwieweit gegenwärtige ÖSL-Bewertungsstudien sozio-kulturelle Werte berücksichtigen. (2) Verschiedene sozio-kulturelle Bewertungsmethoden für ÖSL wurden daraufhin geprüft, inwieweit sie geeignet sind, die Landschaftspräferenzen unterschiedlicher Nutzergruppen offenzulegen und (3) wurde ein Ansatz entwickelt, um die ÖSL-Forschung in die Landschafts- und Raumplanung zu implementieren. (1) Mittels einer Literaturanalyse konnte gezeigt werden, dass sozio-kulturelle Werte bei der Bewertung von produktiven, regulierenden und kulturellen ÖSL erhoben werden, wobei ein engerer Zusammenhang zwischen sozio-kulturellen Werten und kulturellen ÖSL festgestellt wurde. Zwischen sozio-kulturellen Werten und kulturellen Leistungen konnten einige Überlappungen aber auch zahlreiche Unterschiede aufgezeigt werden, was auf eine Trennung der beiden Bereiche hinweist. Darüber hinaus konnte gezeigt werden, dass sich nicht-monetäre Bewertungsmethoden besonders für die Erhebung sozio-kultureller Werte eignen wobei auch monetäre Bewertungsmethoden sozio-kulturelle Werte erfassen, vor allem mittels simulierter Marktansätze (z.B. Zahlungsbereitschaft, Choice Experimente). Die Arbeit zeigte zudem, dass Studien, welche Stakeholder oder die Öffentlichkeit beteiligten, häufiger ebenfalls sozio-kulturelle Werte erhoben. (2) Bei einer Besucherbefragung in einem schottischen Regionalpark führten unterschiedliche Methoden zu unterschiedlichen Ergebnissen. Die Bewertung von ÖSL auf einer 5-Punkteskala führte zu einer allgemeinen Einschätzung über die Wichtigkeit der verschiedenen ÖSL während eine Gewichtung der Leistungen (Verteilung von insgesamt 100 Punkten auf 9 ÖSL) eine relative Einschätzung über die Wichtigkeit der ÖSL und deren Prioritäten ermöglichte. Verschiedene Werteintentionen lieferten ähnlich unterschiedliche Ergebnisse, wobei persönliche Werte differenzierter und allgemein höher ausfielen als gesellschaftliche Werte. Zudem konnte gezeigt werden, dass sozio-kulturelle Werte für ÖSL ähnlich zwischen fünf Gruppen mit unterschiedlichen Landschaftspräferenzen verteilt waren. Die Arbeit liefert demnach empirische Belege dafür, dass es sich bei ÖSL und Landschaftspräferenzen um zwei Konzepte handelt, die nicht untereinander austauschbar sind. (3) Für die Entwicklung eines Ansatzes zur Implementierung von ÖSL-Forschung in die Landschafts- und Raumplanung wurde ein Methodenmix verwendet. Es wurden Ergebnisse eines Stakeholderworkshops verwendet bei dem ÖSL von Stakeholdern kartiert wurden. Mittels dieser Kartierung wurden Landschaftseigenschaften untersucht, die eine besondere Bedeutung für die Bereitstellung der ÖSL haben. Es wurde weiterhin untersucht, inwieweit diese Landschaftseigenschaften im derzeitigen Management Plan priorisiert werden. Die Diskrepanz zwischen Landschaftseigenschaften, die zentral für die Bereitstellung von ÖSL sind, und denen, die derzeit im Management Plan berücksichtigt werden, kann Aufschluss über mögliche Zielkonflikte geben und kann zudem dabei helfen, künftige Planungsprioritäten festzulegen, etwa indem Vorranggebiete für bestimmte ÖSL ausgewiesen werden. Diese Arbeit untersucht die Eignung von sozio-kulturellen Bewertungsmethoden für die Operationalisierung von ÖSL in Landschafts- und Raumplanung. In diesem Zusammenhang liefert die Arbeit neue Erkenntnisse darüber, inwiefern derzeit sozio-kulturellen Werten in ÖSL-Bewertungsstudien berücksichtigt werden. Sie zeigt Möglichkeiten und Grenzen von verschiedenen anerkannten sozio-kulturellen Bewertungsmethoden auf und ermöglicht ein besseres Verständnis über deren Abgrenzung zu Landschaftspräferenzen. Schließlich präsentiert diese Arbeit einen komplexen methodischen Ansatz, um ÖSL-Forschung in die Landschafts- und Raumplanung zu integrieren. KW - non-monetary valuation KW - participatory mapping KW - PPGIS KW - landscape preferences KW - nicht-monetäre Bewertung KW - PPGIS KW - Landschaftspräferenzen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411049 ER - TY - THES A1 - Schmidt, Silke Regina T1 - Analyzing lakes in the time frequency domain T1 - Analyse von Seen in der Zeit-Frequenz-Domäne N2 - The central aim of this thesis is to demonstrate the benefits of innovative frequency-based methods to better explain the variability observed in lake ecosystems. Freshwater ecosystems may be the most threatened part of the hydrosphere. Lake ecosystems are particularly sensitive to changes in climate and land use because they integrate disturbances across their entire catchment. This makes understanding the dynamics of lake ecosystems an intriguing and important research priority. This thesis adds new findings to the baseline knowledge regarding variability in lake ecosystems. It provides a literature-based, data-driven and methodological framework for the investigation of variability and patterns in environmental parameters in the time frequency domain. Observational data often show considerable variability in the environmental parameters of lake ecosystems. This variability is mostly driven by a plethora of periodic and stochastic processes inside and outside the ecosystems. These run in parallel and may operate at vastly different time scales, ranging from seconds to decades. In measured data, all of these signals are superimposed, and dominant processes may obscure the signals of other processes, particularly when analyzing mean values over long time scales. Dominant signals are often caused by phenomena at long time scales like seasonal cycles, and most of these are well understood in the limnological literature. The variability injected by biological, chemical and physical processes operating at smaller time scales is less well understood. However, variability affects the state and health of lake ecosystems at all time scales. Besides measuring time series at sufficiently high temporal resolution, the investigation of the full spectrum of variability requires innovative methods of analysis. Analyzing observational data in the time frequency domain allows to identify variability at different time scales and facilitates their attribution to specific processes. The merit of this approach is subsequently demonstrated in three case studies. The first study uses a conceptual analysis to demonstrate the importance of time scales for the detection of ecosystem responses to climate change. These responses often occur during critical time windows in the year, may exhibit a time lag and can be driven by the exceedance of thresholds in their drivers. This can only be detected if the temporal resolution of the data is high enough. The second study applies Fast Fourier Transform spectral analysis to two decades of daily water temperature measurements to show how temporal and spatial scales of water temperature variability can serve as an indicator for mixing in a shallow, polymictic lake. The final study uses wavelet coherence as a diagnostic tool for limnology on a multivariate high-frequency data set recorded between the onset of ice cover and a cyanobacteria summer bloom in the year 2009 in a polymictic lake. Synchronicities among limnological and meteorological time series in narrow frequency bands were used to identify and disentangle prevailing limnological processes. Beyond the novel empirical findings reported in the three case studies, this thesis aims to more generally be of interest to researchers dealing with now increasingly available time series data at high temporal resolution. A set of innovative methods to attribute patterns to processes, their drivers and constraints is provided to help make more efficient use of this kind of data. N2 - See-Ökosysteme sind eine der bedrohtesten Ressourcen der Hydrosphäre. Sie reagieren besonders sensibel auf Veränderungen des Klimas und auf Einflüsse durch Landnutzung, da verschiedene Prozesse im gesamten Einzugsgebiet auf sie einwirken. Daher ist es von besonderer Dringlichkeit, die verschiedenen Prozess-Dynamiken in See-Ökosystemen besser zu verstehen. Die hier vorliegende Doktorarbeit hat zum Ziel, das bestehende Wissen bezüglich der verschiedenen einwirkenden Prozesse in See-Ökosystemen zu erweitern. Die Arbeit stellt ein Forschungsdesign zur Diskussion, das eine Literatur-basierte und auf empirischen Erhebungen beruhende Analyse von Variabilität und Mustern in großen Datensätzen verschiedener Umweltparameter im Zeit-Frequenz-Raum ermöglicht. Umweltparameter sind häufig charakterisiert durch eine hohe zeitliche Dynamik. Diese Variabilität steht im Zentrum dieser Arbeit. Sie wird durch eine Fülle an periodischen und stochastischen Prozessen innerhalb und außerhalb des Ökosystems getrieben. Diese Prozesse können gleichzeitig und auf sehr unterschiedlichen Zeitskalen, von Sekunden bis hin zu Dekaden, ablaufen. In Messdaten überlagern sich alle diese Signale, und dominante Prozesse können die Signale anderer Prozesse verschleiern, insbesondere wenn Mittelwerte über längere Zeiträume analysiert werden. Dominante Signale werden oft durch Prozesse auf längeren Zeitskalen verursacht, wie z. B. saisonale Zyklen. Diese sind im Allgemeinen in der limnologischen Literatur gut dokumentiert. See-Ökosysteme werden allerdings von Prozessen auf allen Zeitskalen beeinflusst. Insbesondere biologische, chemische und physikalische Prozesse operieren in kürzeren Zeitrahmen. Die Variabilität, die über solche Prozesse in See-Ökosysteme eingebracht wird, ist bisher weit weniger gut erforscht. Neben der Notwendigkeit, Umweltparameter in hoher zeitlicher Auflösung zu messen, erfordert die Untersuchung der kompletten Bandbreite an Variabilität innovative Analysemethoden. Die Berücksichtigung der Zeit-Frequenz-Domäne kann dabei helfen, Dynamiken auf verschiedenen Zeitskalen zu identifizieren und daraus bestimmte Prozesse abzuleiten. Diese Arbeit zeigt die Vorzüge dieser Herangehensweise anhand von drei Fallstudien auf. Die erste Studie zeigt die Bedeutung von Zeitskalen für die Erfassung von Ökosystem-Reaktionen auf klimatische Veränderungen. Diese ereignen sich oft während kritischer Zeitfenster im Jahresverlauf und können durch die Überschreitung von Schwellenwerten in den treibenden Variablen, unter Umständen zeitlich verzögert, verursacht sein. Solche Zusammenhänge können nur erfasst werden, wenn die zeitliche Auflösung der Daten hoch genug ist. In der zweiten Studie wird die Spektralanalyse, basierend auf der Fast Fourier Transformation, auf einen Datensatz täglicher Messungen der Wassertemperatur über zwanzig Jahre hinweg angewendet. Es wird gezeigt, wie zeitliche und räumliche Skalen der Variabilität der Wassertemperatur als Indikator für Mischprozesse in einem polymiktischen See dienen können. In der dritten Studie wird die Wavelet Coherence als Diagnose-Werkzeug für einen multivariaten, hochfrequenten Datensatz genutzt. Dieser wurde zwischen dem Einsetzen einer Eisbedeckung und einer Sommerblüte von Cyanobakteriern in einem polymiktischen See im Jahr 2009 erhoben. Synchronizitäten zwischen limnologischen und meteorologischen Zeitreihen in schmalen Frequenz-Bändern wurden genutzt, um vorherrschende limnologische Prozesse zu identifizieren und analytisch zu trennen. Neben den neuen empirischen Erkenntnissen, die in den drei Fallstudien präsentiert werden, zielt diese Doktorarbeit darauf ab, Forscher*innen, Behörden und politischen Entscheidungsträger*innen eine Grundlage zu liefern, die hohe zeitliche Auflösung der heute vielfach verfügbaren Monitoring-Datensätze effizienter zu nutzen. Innovative Methoden sollen dabei helfen, Muster in den Daten Prozessen zuzuordnen und die entsprechenden Treiber und Limitationen zu identifizieren. KW - variability KW - time scale KW - wavelet KW - coherence KW - spectral analysis KW - time series analysis KW - polymictic lakes KW - process identification KW - Variabilität KW - Zeitskala KW - Spektralanalyse KW - Zeitreihenanalyse KW - polymiktische Seen KW - Prozessidentifikation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406955 ER - TY - THES A1 - Schmierer, Christoph T1 - Technologietransfer und Spillovereffekte ausländischer Tochterunternehmen in Entwicklungs- und Schwellenländern T1 - Technology transfer and spillover effects of foreign affiliates in developing countries and transition economies BT - Mit dem Fokus auf ausländische Exportplattformen BT - with focus on foreign export platforms T2 - Potsdam Economic Studies N2 - Für den Industrialisierungsprozess von Entwicklungs- und Schwellenländern haben ausländische Direktinvestitionen (ADI) eine wichtige Funktion. Sie können zum einen zu einer Erhöhung des industriellen Output des Ziellandes führen und zum anderen als Träger von technologischem Wissen fungieren. Neues Wissen kann den Empfängerländern der ADI durch Spillovereffekte und Technologietransfers ausländischer Tochterunternehmen zufließen. Diese Arbeit soll Antworten auf die Fragen geben, durch welche Mechanismen Spillovereffekte und Technologietransfers ausgelöst werden und wie Entwicklungs- und Schwellenländern diesen Wissenszufluss zur Beschleunigung ihres Industrialisierungsprozesses einsetzen können. Hierfür wird ein Konzept zur Förderung von Spillovereffekten entwickelt. Weiterhin wird ein theoretisches Modell entwickelt, in dem der Technologietransfer ausländischer Exportplattformen erstmals in Abhängigkeit des Anteils der Vorprodukte, die im Gastland nachgefragt werden, untersucht. In den Fallstudien Irland und Malaysia werden die Ergebnisse des theoretischen Modells sowie des entwickelten Konzepts illustriert. N2 - Foreign direct investments (FDI) can have a very important function to accelerate the industrialization process of developing countries and transition economies. On the one hand they can cause an increase of industrial output and on the other, can transfer technology knowledge through FDI. Thus, host countries can profit from new technical knowledge through spillover effects and technology transfers from foreign affiliates. This thesis can give answers to the following questions: What are the mechanisms that trigger spillover effects and technology transfers? How can developing countries and transition economies use this knowledge to accelerate their industrialization process? To answer these questions, a conceptual guideline for the promotion of spillover effects has been developed. Furthermore a theoretical model has been created, which analyses the technology transfer from foreign export platform depending on the fraction of intermediate products sourced in the host country. The case studies of Ireland and Malaysia are used to illustrate the results of the theoretical model and conceptual guidelines. T3 - Potsdam Economic Studies - 6 KW - ausländische Direktinvestitionen KW - Exportplattformen KW - Spillovereffekte KW - Technologietransfer KW - foreign direct investment KW - export platform KW - spillover effects KW - technology transfer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103988 SN - 978-3-86956-398-5 SN - 2196-8691 SN - 2196-9302 IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schulze, Nicole T1 - Neue Templatphasen zur anisotropen Goldnanopartikelherstellung durch den Einsatz strukturbildender Polymere T1 - New template phases for anisotropic gold nanoparticle production through the use of structure-forming polymers N2 - Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von anisotropen Goldnanopartikeln in einer geeigneten Polyelektrolyt-modifizierten Templatphase. Der Mittelpunkt bildet dabei die Auswahl einer geeigneten Templatphase, zur Synthese von einheitlichen und reproduzierbaren anisotropen Goldnanopartikeln mit den daraus resultierenden besonderen Eigenschaften. Bei der Synthese der anisotropen Goldnanopartikeln lag der Fokus in der Verwendung von Vesikeln als Templatphase, wobei hier der Einfluss unterschiedlicher strukturbildender Polymere (stark alternierende Maleamid-Copolymere PalH, PalPh, PalPhCarb und PalPhBisCarb mit verschiedener Konformation) und Tenside (SDS, AOT – anionische Tenside) bei verschiedenen Synthese- und Abtrennungsbedingungen untersucht werden sollte. Im ersten Teil der Arbeit konnte gezeigt werden, dass PalPhBisCarb bei einem pH-Wert von 9 die Bedingungen eines Röhrenbildners für eine morphologische Transformation von einer vesikulären Phase in eine röhrenförmige Netzwerkstruktur erfüllt und somit als Templatphase zur formgesteuerten Bildung von Nanopartikeln genutzt werden kann. Im zweiten Teil der Arbeit wurde dargelegt, dass die Templatphase PalPhBisCarb (pH-Wert von 9, Konzentration von 0,01 wt.%) mit AOT als Tensid und PL90G als Phospholipid (im Verhältnis 1:1) die effektivste Wahl einer Templatphase für die Bildung von anisotropen Strukturen in einem einstufigen Prozess darstellt. Bei einer konstanten Synthesetemperatur von 45 °C wurden die besten Ergebnisse bei einer Goldchloridkonzentration von 2 mM, einem Gold-Templat-Verhältnis von 3:1 und einer Synthesezeit von 30 Minuten erzielt. Ausbeute an anisotropen Strukturen lag bei 52 % (Anteil an dreieckigen Nanoplättchen von 19 %). Durch Erhöhung der Synthesetemperatur konnte die Ausbeute auf 56 % (29 %) erhöht werden. Im dritten Teil konnte durch zeitabhängige Untersuchungen gezeigt werden, dass bei Vorhandensein von PalPhBisCarb die Bildung der energetisch nicht bevorzugten Plättchen-Strukturen bei Raumtemperatur initiiert wird und bei 45 °C ein Optimum annimmt. Kintetische Untersuchungen haben gezeigt, dass die Bildung dreieckiger Nanoplättchen bei schrittweiser Zugabe der Goldchlorid-Präkursorlösung zur PalPhBisCarb enthaltenden Templatphase durch die Dosierrate der vesikulären Templatphase gesteuert werden kann. In umgekehrter Weise findet bei Zugabe der Templatphase zur Goldchlorid-Präkursorlösung bei 45 °C ein ähnlicher, kinetisch gesteuerter Prozess der Bildung von Nanodreiecken statt mit einer maximalen Ausbeute dreieckigen Nanoplättchen von 29 %. Im letzten Kapitel erfolgten erste Versuche zur Abtrennung dreieckiger Nanoplättchen von den übrigen Geometrien der gemischten Nanopartikellösung mittels tensidinduzierter Verarmungsfällung. Bei Verwendung von AOT mit einer Konzentration von 0,015 M wurde eine Ausbeute an Nanoplättchen von 99 %, wovon 72 % dreieckiger Geometrien hatten, erreicht. N2 - The aim of the present work was the synthesis and characterization of anisotropic gold nanoparticles in a suitable polyelectrolyte-modified template phase. The focus was on the selection of a suitable template phase for the synthesis of uniform and reproducible anisotropic gold nanoparticles with the resulting special properties. In the synthesis of the anisotropic gold nanoparticles, the focus was on the use of vesicles as a template phase. Here, the influence of different structure-forming polymers (strongly alternating maleimide copolymers PalH, PalPh, PalPhCarb and PalPhBisCarb with different conformations) and surfactants (SDS, AOT - anionic surfactants) should be studied at various synthesis and separation conditions. In the first part of the work, it could be shown that PalPhBisCarb at pH 9 meets the requirements of a tubulating agent for a morphological transformation of a vesicular phase into a tubular network structure and thus can be used as a template phase for the shape-controlled formation of nanoparticles. In the second part of the work, it was shown that the template phase PalPhBisCarb (pH value of 9, concentration of 0.01 wt.%) with AOT as surfactant and PL90G as phospholipid (in the ratio 1:1) is the most effective choice of template phase for the formation of anisotropic structures in a one-step process. At a constant synthesis temperature of 45 °C, the best results were achieved with a gold chloride concentration of 2 mM, a gold-template ratio of 3:1 and a synthesis time of 30 minutes. The yield of anisotropic structures was 52% (triangular nanoplatelet content of 19%). By increasing the synthesis temperature, the yield could be increased to 56% (29%). In the third part, it was shown by time-dependent investigations that in the presence of PalPhBisCarb, the formation of the not energetically preferred platelet structures is initiated at room temperature and assumes an optimum at 45 °C. Kinetical studies have shown that the formation of triangular nanosheets can be controlled by the dosing rate of the vesicular template phase when the gold chloride precursor solution is gradually added to the PalPhBisCarb-containing template phase. Conversely, upon addition of the template phase to the gold chloride precursor solution at 45 °C, a similar, kinetically controlled process of formation of nanodimers takes place with a maximum yield of triangular nanoplatelets of 29%. In the last chapter, initial attempts were made to separate triangular nanoplatelets from the other geometries of the mixed nanoparticle solution by means of surfactant-induced depletion flocculation. When AOT was used at a concentration of 0.015 M, a yield of nanoplatelets of 99%, of which 72% had triangular geometries, was achieved. KW - Nanopartikel KW - nanoparticle KW - Templatphase KW - template phase KW - Gold KW - gold KW - anisotrop KW - anisotropic Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409515 ER - TY - THES A1 - Schumacher, Kinga T1 - Hybride semantische Suche - eine Kombination aus Fakten- und Dokumentretrieval T1 - Hybrid semantic search - a combination of fact and document retrieval N2 - Das Thema der vorliegenden Arbeit ist die semantische Suche im Kontext heutiger Informationsmanagementsysteme. Zu diesen Systemen zählen Intranets, Web 3.0-Anwendungen sowie viele Webportale, die Informationen in heterogenen Formaten und Strukturen beinhalten. Auf diesen befinden sich einerseits Daten in strukturierter Form und andererseits Dokumente, die inhaltlich mit diesen Daten in Beziehung stehen. Diese Dokumente sind jedoch in der Regel nur teilweise strukturiert oder vollständig unstrukturiert. So beschreiben beispielsweise Reiseportale durch strukturierte Daten den Zeitraum, das Reiseziel, den Preis einer Reise und geben in unstrukturierter Form weitere Informationen, wie Beschreibungen zum Hotel, Zielort, Ausflugsziele an. Der Fokus heutiger semantischer Suchmaschinen liegt auf dem Finden von Wissen entweder in strukturierter Form, auch Faktensuche genannt, oder in semi- bzw. unstrukturierter Form, was üblicherweise als semantische Dokumentensuche bezeichnet wird. Einige wenige Suchmaschinen versuchen die Lücke zwischen diesen beiden Ansätzen zu schließen. Diese durchsuchen zwar gleichzeitig strukturierte sowie unstrukturierte Daten, werten diese jedoch entweder weitgehend voneinander unabhängig aus oder schränken die Suchmöglichkeiten stark ein, indem sie beispielsweise nur bestimmte Fragemuster unterstützen. Hierdurch werden die im System verfügbaren Informationen nicht ausgeschöpft und gleichzeitig unterbunden, dass Zusammenhänge zwischen einzelnen Inhalten der jeweiligen Informationssysteme und sich ergänzende Informationen den Benutzer erreichen.
 Um diese Lücke zu schließen, wurde in der vorliegenden Arbeit ein neuer hybrider semantischer Suchansatz entwickelt und untersucht, der strukturierte und semi- bzw. unstrukturierte Inhalte während des gesamten Suchprozesses kombiniert. Durch diesen Ansatz werden nicht nur sowohl Fakten als auch Dokumente gefunden, es werden auch Zusammenhänge, die zwischen den unterschiedlich strukturierten Daten bestehen, in jeder Phase der Suche genutzt und fließen in die Suchergebnisse mit ein. Liegt die Antwort zu einer Suchanfrage nicht vollständig strukturiert, in Form von Fakten, oder unstrukturiert, in Form von Dokumenten vor, so liefert dieser Ansatz eine Kombination der beiden. Die Berücksichtigung von unterschiedlich Inhalten während des gesamten Suchprozesses stellt jedoch besondere Herausforderungen an die Suchmaschine. Diese muss in der Lage sein, Fakten und Dokumente in Abhängigkeit voneinander zu durchsuchen, sie zu kombinieren sowie die unterschiedlich strukturierten Ergebnisse in eine geeignete Rangordnung zu bringen. Weiterhin darf die Komplexität der Daten nicht an die Endnutzer weitergereicht werden. Die Darstellung der Inhalte muss vielmehr sowohl bei der Anfragestellung als auch bei der Darbietung der Ergebnisse verständlich und leicht interpretierbar sein. Die zentrale Fragestellung der Arbeit ist, ob ein hybrider Ansatz auf einer vorgegebenen Datenbasis die Suchanfragen besser beantworten kann als die semantische Dokumentensuche und die Faktensuche für sich genommen, bzw. als eine Suche die diese Ansätze im Rahmen des Suchprozesses nicht kombiniert. Die durchgeführten Evaluierungen aus System- und aus Benutzersicht zeigen, dass die im Rahmen der Arbeit entwickelte hybride semantische Suchlösung durch die Kombination von strukturierten und unstrukturierten Inhalten im Suchprozess bessere Antworten liefert als die oben genannten Verfahren und somit Vorteile gegenüber bisherigen Ansätzen bietet. Eine Befragung von Benutzern macht deutlich, dass die hybride semantische Suche als verständlich empfunden und für heterogen strukturierte Datenmengen bevorzugt wird. N2 - The subject of this doctoral thesis is semantic search in the context of today's information management systems. These systems include intranets and Web 3.0 applications, as well as many web portals that contain information in heterogeneous formats and structures. On the one hand, they contain data in a structured form, and on the other hand they contain documents that are related to this data. However, these documents are usually only partially structured or completely unstructured. For example, travel portals describe the period, the destination, the cost of the travel through structured data, while additional information, such as descriptions of the hotel, destination, excursions, etc. is in unstructured form. 
The focus of today's semantic search engines is to find knowledge either in a structured form (also called fact retrieval), or in semi- or un-structured form, which is commonly referred to as semantic document retrieval. Only a few search engines are trying to close the gap between these two approaches. Although they search simultaneously for structured and unstructured data, the results are either analyzed independently, or the search possibilities are highly limited: for example, they might support only specific question patterns. Accordingly, the information available in the system is not exploited, and, simultaneously, the relationships between individual pieces of content in the respective information systems and complementary information cannot reach the user. In order to close this gap, this thesis develops and evaluates a new hybrid semantic search approach that combines structured and semi- or un-structured content throughout the entire search process. This approach not only finds facts and documents, it uses also relationships that exist between the different items of structured data at every stage of the search, and integrates them into the search results. If the answer to a query is not completely structured (like a fact), or unstructured (like a document), this approach provides a query-specific combination of both. However, consideration of structured as well as semi- or un-structured content by the information system throughout the entire search process poses a special challenge to the search engine. This engine must be able to browse facts and documents independently, to combine them, and to rank the differently structured results in an appropriate order. Furthermore, the complexity of the data should not be apparent to the end user. Rather, the presentation of the contents must be understandable and easy to interpret, both in the query request and the presentation of results. The central question of this thesis is whether a hybrid approach can answer the queries on a given database better than a semantic document search or fact-finding alone, or any other hybrid search that does not combine these approaches during the search process. The evaluations from the perspective of the system and users show that the hybrid semantic search solution developed in this thesis provides better answers than the methods above by combining structured and unstructured content in the search process, and therefore gives an advantage over previous approaches. A survey of users shows that the hybrid semantic search is perceived as understandable and preferable for heterogeneously structured datasets. KW - semantische Suche KW - hybride semantische Suche KW - Methoden der semantischen Suche KW - Evaluierung semantischer Suchmaschinen KW - semantisches Ranking KW - information retrieval KW - semantic search KW - hybrid semantic search KW - semantic search methods KW - semantic search evaluation KW - semantic ranking Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405973 ER - TY - THES A1 - Schunack, Silke T1 - Processing of non-canonical word orders in an L2 T1 - Verarbeitung von nichtkanonischen Wortfolgen in der L2 BT - when small changes make no big difference BT - wenn kleine Änderungen keine große Unterschiede machen N2 - This thesis investigates the processing of non-canonical word orders and whether non-canonical orders involving object topicalizations, midfield scrambling and particle verbs are treated the same by native (L1) and non-native (L2) speakers. The two languages investigated are Norwegian and German. 32 L1 Norwegian and 32 L1 German advanced learners of Norwegian were tested in two experiments on object topicalization in Norwegian. The results from the online self-paced reading task and the offline agent identification task show that both groups are able to identify the non-canonical word order and show a facilitatory effect of animate subjects in their reanalysis. Similarly high error rates in the agent identification task suggest that globally unambiguous object topicalizations are a challenging structure for L1 and L2 speakers alike. The same participants were also tested in two experiments on particle placement in Norwegian, again using a self-paced reading task, this time combined with an acceptability rating task. In the acceptability rating L1 and L2 speakers show the same preference for the verb-adjacent placement of the particle over the non-adjacent placement after the direct object. However, this preference for adjacency is only found in the L1 group during online processing, whereas the L2 group shows no preference for either order. Another set of experiments tested 33 L1 German and 39 L1 Slavic advanced learners of German on object scrambling in ditransitive clauses in German. Non-native speakers accept both object orders and show neither a preference for either order nor a processing advantage for the canonical order. The L1 group, in contrast, shows a small, but significant preference for the canonical dative-first order in the judgment and the reading task. The same participants were also tested in two experiments on the application of the split rule in German particle verbs. Advanced L2 speakers of German are able to identify particle verbs and can apply the split rule in V2 contexts in an acceptability judgment task in the same way as L1 speakers. However, unlike the L1 group, the L2 group is not sensitive to the grammaticality manipulation during online processing. They seem to be sensitive to the additional lexical information provided by the particle, but are unable to relate the split particle to the preceding verb and recognize the ungrammaticality in non-V2 contexts. Taken together, my findings suggest that non-canonical word orders are not per se more difficult to identify for L2 speakers than L1 speakers and can trigger the same reanalysis processes as in L1 speakers. I argue that L2 speakers’ ability to identify a non-canonical word order depends on how the non-canonicity is signaled (case marking vs. surface word order), on the constituents involved (identical vs. different word types), and on the impact of the word order change on sentence meaning. Non-canonical word orders that are signaled by morphological case marking and cause no change to the sentence’s content are hard to detect for L2 speakers. N2 - Diese Arbeit untersucht die Verarbeitung nichtkanonischer Wortfolgen und ob nichtkanonische Wortfolgen, die Objekttopikalisierung, Mittelfeldscrambling und Partikelverben beinhalten, von Muttersprachlern (L1) und Fremdsprachenlernern (L2) gleichermaßen verarbeitet werden. Die untersuchten Sprachen sind Norwegisch und Deutsch. 32 norwegische Muttersprachler und 32 fortgeschrittene deutsche Norwegischlerner wurden in zwei Experimenten zur Objekttopikalisierung im Norwegischen getestet. Die Resultate des Leseexperiments und der Agensidentifikation zeigen, dass beide Gruppen in der Lage sind die nichtkanonische Wortfolge zu identifizieren und einen fördernden Effekt von belebten Subjekten auf ihre Reanalyse zeigen. Ähnlich hohe Fehlerrate in der Agensidentifikation suggerieren, dass global unambige Objekttopikalisierungen eine anspruchsvolle Struktur für L1- und L2-Sprecher sind. Dieselben Teilnehmer wurden auch in zwei Experimenten zur Platzierung von Partikeln im Norwegischen getestet. Es wurde wieder ein Leseexperiment durchgeführt, diesmal zusammen mit einem Akzeptabilitätsrating. In diesem Rating zeigen L1- und L2-Sprecher die gleiche Präferenz für die verbnahe Platzierung der Partikel gegenüber der Platzierung nach dem direkten Objekt. Diese Präferenz findet sich im Leseexperiment nur in den Daten der L1-Gruppe, die L2-Gruppe zeigt dort keine Präferenz für eine der beiden Reihenfolgen. Eine weitere Gruppe Experimente testete 33 deutsche Muttersprachler und 39 fortgeschrittene slawische Deutschlerner zum Objektscrambling in deutschen ditransitiven Sätzen. Fremdsprachenlerner akzeptieren beide möglichen Reihenfolgen und zeigen keine Präferenz oder schnellere Verarbeitung für die kanonische Reihenfolge. Die L1-Gruppe zeigt eine numerisch kleine, aber signifikante Präferenz für die kanonische Dativ-Akkusativ-Folge im Akzeptabilitätsrating und dem Leseexperiment. Dieselben Teilnehmer wurden auch in zwei Experimenten zur Anwendung der Trennungsregel bei trennbaren Verben im Deutschen getestet. Fortgeschrittenen L2-Sprecher des Deutschen können trennbare Verben identifizieren und die Trennregel in V2-Kontexten wie dem Akzeptabilitätsrating genauso anwenden wie Muttersprachler. Allerdings zeigt die L2-Gruppe keine Sensibilität gegenüber der Grammatikalitätsmanipulation in der Leseaufgabe. Sie scheinen die zusätzliche lexikalische Information der Partikel wahrzunehmen, können jedoch getrennte Partikel nicht mit dem vorhergehenden Verb verbinden und die Ungrammatikalität der Trennung in Nicht-V2-Kontexten erkennen. Hierin unterscheiden sie sich von Mutterprachlern. Auf der Basis meiner Ergebnisse scheinen nichtkanonische Wortfolgen nicht per se schwieriger zu identifizieren zu sein für Fremdsprachlerner als für Muttersprachler und können dieselben Reanalyseprozesse auslösen. Ich argumentiere, dass die Fähigkeit von L2-Sprechern nichtkanonische Wortfolgen zu identifizieren davon abhängt, wie diese signalisiert werden (morphologische Kasusmarkierung vs. Oberflächenwordfolge), von den involvierten Konstituenten (gleiche vs. verschiedene Wortarten) und dem Einfluss der Änderung der Wortfolge auf die Satzbedeutung. Nichtkanonische Wortfolgen, die durch morphologische Kasusmarkierung signalisiert werden und keine Änderung der Satzbedeutung verursachen sind schwer zu identifizieren für Fremdsprachenlerner. KW - L2 sentence processing KW - object topicalization KW - scrambling KW - particle verbs KW - Norwegian KW - German KW - self-paced reading KW - acceptability judgments KW - Satzverarbeitung KW - Objekttopikalisierung KW - Scrambling KW - Partikelverben KW - Norwegisch KW - Leseexperiment KW - Akzeptabilitätsbewertung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103750 ER - TY - THES A1 - Schuster, Isabell T1 - Prevalence and Predictors of Sexual Aggression Victimization and Perpetration in Chile and Turkey T1 - Prävalenz und Prädiktoren sexueller Viktimisierung und Ausübung sexueller Aggression in Chile und der Türkei BT - A Cross-Cultural Analysis BT - Eine kulturübergreifende Analyse N2 - Background: Although sexual aggression is recognized as a serious issue worldwide, the current knowledge base is primarily built on evidence from Western countries, particularly the U.S. For the present doctoral research, Chile and Turkey were selected based on theoretical considerations to examine the prevalence as well as predictors of sexual aggression victimization and perpetration. The first aim of this research project was to systematically review the available evidence provided by past studies on this topic within each country. The second aim was to empirically study the prevalence of experiencing and engaging in sexual aggression since the age of consent among college students in Chile and Turkey. The third aim was to conduct cross-cultural analyses examining pathways to victimization and perpetration based on a two-wave longitudinal design. Methods: This research adopted a gender-inclusive approach by considering men and women in both victim and perpetrator roles. For the systematic reviews, multiple-stage literature searches were performed, and based on a predefined set of eligibility criteria, 28 studies in Chile and 56 studies in Turkey were identified for inclusion. A two-wave longitudinal study was conducted to examine the prevalence and predictors of sexual aggression among male and female college students in Chile and Turkey. Self-reports of victimization and perpetration were assessed with a Chilean Spanish or Turkish version of the Sexual Aggression and Victimization Scale. Two path models were conceptualized in which participants’ risky sexual scripts for consensual sex, risky sexual behavior, sexual self-esteem, sexual assertiveness, and religiosity were assessed at T1 and used as predictors of sexual aggression victimization and perpetration at T2 in the following 12 months, mediated through past victimization or perpetration, respectively. The models differed in that sexual assertiveness was expected to serve different functions for victimization (refusal assertiveness negatively linked to victimization) and perpetration (initiation assertiveness positively linked to perpetration). Results: Both systematic reviews revealed that victimization was addressed by all included studies, but data on perpetration was severely limited. A great heterogeneity not only in victimization rates but also in predictors was found, which may be attributed to a lack of conceptual and methodological consistency across studies. The empirical analysis of the prevalence of sexual aggression in Chile revealed a victimization rate of 51.9% for women and 48.0% for men, and a perpetration rate of 26.8% for men and 16.5% for women. In the Turkish original data, victimization was reported by 77.6% of women and 65.5% of men, whereas, again, lower rates were found for perpetration, with 28.9% of men and 14.2% of women reporting at least one incident. The cross-cultural analyses showed, as expected, that risky sexual scripts informed risky sexual behavior, and thereby indirectly increased the likelihood of victimization and perpetration at T2 in both samples. More risky sexual scripts were also linked to lower levels of refusal assertiveness in both samples, indirectly increasing the vulnerability to victimization at T2. High sexual self-esteem decreased the probability of victimization at T2 through higher refusal assertiveness as well as through less risky sexual behavior also in both samples, whereas it increased the odds of perpetration at T2 via higher initiation assertiveness in the Turkish sample only. Furthermore, high religiosity decreased the odds of perpetration and victimization at T2 through less risky sexual scripts and less risky sexual behavior in both samples. It reduced the vulnerability to victimization through less risky sexual scripts and higher refusal assertiveness in the Chilean sample only. In the Turkish sample only, it increased the odds of perpetration and victimization through lower sexual self-esteem. Conclusions: The findings showed that sexual aggression is a widespread problem in both Chile and Turkey, contributing cross-cultural evidence to the international knowledge base and indicating the clear need for implementing policy measures and prevention strategies in each country. Based on the results of the prospective analyses, concrete implications for intervention efforts are discussed. N2 - Hintergrund: Obwohl sexuelle Aggression als ein ernstzunehmendes Problem weltweit angesehen wird, stützt sich die gegenwärtige Datenlage in erster Linie auf Evidenz westlicher Staaten. Für die vorliegende Arbeit wurden die Länder Chile und Türkei anhand theoretischer Überlegungen ausgewählt, um sowohl die Prävalenz als auch Prädiktoren sexueller Aggression zu untersuchen. Das erste Ziel bestand darin, die Ergebnisse früherer Studien zu sexueller Aggression in jedem Land systematisch zu betrachten. Das zweite Ziel war, die Prävalenz von Viktimisierung und Ausübung sexueller Aggression seit dem Schutzalter unter Studierenden in Chile und der Türkei empirisch zu untersuchen. Das dritte Ziel war schließlich die Durchführung von interkulturellen Analysen, um Pfade zu Viktimisierung und Ausübung anhand eines längsschnittlichen Designs zu überprüfen. Methode: Es wurde ein geschlechterinklusiver Ansatz verfolgt, wobei Männer und Frauen sowohl als potentielle Opfer als auch Täter*innen betrachtet wurden. Für die systematischen Reviews wurden mehrstufige Literaturrecherchen durchgeführt. Basierend auf einem vordefinierten Satz an Auswahlkriterien wurden insgesamt 28 Studien für Chile und 56 Studien für die Türkei identifiziert. Weiterhin wurde eine Längsschnittstudie mit zwei Messzeitpunkten durchgeführt, um sowohl die Prävalenz als auch Prädiktoren sexueller Aggression unter Studierenden in Chile und der Türkei zu untersuchen. Selbstberichte über Viktimisierung und Ausübung sexueller Aggression wurden mittels einer spanischen bzw. türkischen Version der Sexual Aggression and Victimization Scale erhoben. Zwei Pfadmodelle wurden konzipiert, in denen riskante Skripts für konsensuelle Sexualkontakte, riskantes Sexualverhalten, sexuelles Selbstwertgefühl, sexuelle Assertivität und Religiosität zu T1 erfasst wurden und als Prädiktoren für Viktimisierung und Ausübung sexueller Aggression in den folgenden 12 Monaten (T2) verwendet wurden, jeweils mediiert durch vergangene Viktimisierung bzw. Ausübung sexueller Aggression. Die Modelle unterschieden sich darin, dass für sexuelle Assertivität unterschiedliche Funktionen für Viktimisierung (Ablehnungsassertivität negativ mit Viktimisierung assoziiert) und Ausübung sexueller Aggression (Initiierungsassertivität positiv mit Ausübung assoziiert) angenommen wurden. Ergebnisse: Die beiden Reviews zeigten, dass Viktimisierung von allen berücksichtigten Studien untersucht wurde, wohingegen kaum Daten zur Ausübung von sexueller Aggression vorlagen. Eine große Heterogenität wurde bei den Viktimisierungsraten, aber auch bei den Prädiktoren festgestellt, was vor allem auf mangelnde konzeptionelle und methodische Konsistenz zwischen den Studien zurückgeführt werden kann. In Bezug auf die Originaldaten zur Prävalenz in Chile zeigte sich, dass 51.9% der Frauen und 48.0% der Männer Viktimisierung angaben. Die Prävalenzraten zur Ausübung lagen bei 26.8% unter Männern und 16.5% unter Frauen. In den türkischen Originaldaten wurde Viktimisierung von 77.6% der Frauen und 65.5% der Männer berichtet. Niedigere Raten wurden erneut für die Ausübung gefunden: 28.9% der Männer und 14.2% der Frauen in der Türkei gaben mindestens einen sexuell aggressiven Übergriff an. Die interkulturellen Analysen zeigten, dass riskante sexuelle Skripts mit einem riskanteren Sexualverhalten assoziiert waren und dadurch indirekt die Wahrscheinlichkeit von Viktimisierung und Ausübung zu T2 in beiden Stichproben erhöhten. Riskantere sexuelle Skripts waren weiterhin mit einer geringeren Ablehnungsassertivität in beiden Stichproben assoziiert, was die Vulnerabilität für Viktimisierung zu T2 indirekt erhöhte. Höheres sexuelles Selbstwertgefühl verringerte die Wahrscheinlichkeit sexueller Viktimisierung zu T2 durch eine höhere Ablehnungsassertivität sowie durch weniger riskantes Sexualverhalten in beiden Stichproben, wohingegen die Wahrscheinlichkeit für Ausübung zu T2 durch eine höhere Initiierungsassertivität größer wurde, allerdings nur in der türkischen Stichprobe. Darüber hinaus verminderte höhere Religiosität die Wahrscheinlichkeit von Viktimisierung und Ausübung zu T2 über weniger riskante sexuelle Skripts und weniger riskantes Sexualverhalten in beiden Stichproben. In der chilenischen Stichprobe wurde die Vulnerabilität für Viktimisierung durch weniger riskante sexuelle Skripts und höhere Ablehnungsassertivität verringert. Hingegen erhöhte sich in der türkischen Stichprobe die Wahrscheinlichkeit für Viktimisierung und Ausübung durch ein niedrigeres sexuelles Selbstwertgefühl. Konklusion: Die Ergebnisse zeigen, dass sexuelle Aggression sowohl in Chile als auch in der Türkei ein weit verbreitetes Problem darstellt. Sie bereichern die internationale Wissensbasis mit interkultureller Evidenz und weisen auf die Notwendigkeit hin, politische Maßnahmen und Präventionsstrategien zu implementieren. Basierend auf den Ergebnissen der prospektiven Analysen werden konkrete Implikationen für Interventionsstrategien diskutiert. KW - Sexual Aggression KW - Prevalence KW - Risk and Vulnerability Factors KW - Chile KW - Turkey KW - Sexuelle Aggression KW - Prävalenz KW - Risiko- und Vulnerabilitätsfaktoren KW - Chile KW - Türkei Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413897 ER - TY - THES A1 - Schürmann, Robin Mathis T1 - Interaction of the potential DNA-radiosensitizer 8-bromoadenine with free and plasmonically generated electrons T1 - Wechselwikung des potentiellen DNA-Radiosensibilisators 8-Bromoadenin mit freien und plasmonisch erzeugten Elektronen N2 - In Germany more than 200.000 persons die of cancer every year, which makes it the second most common cause of death. Chemotherapy and radiation therapy are often combined to exploit a supra-additive effect, as some chemotherapeutic agents like halogenated nucleobases sensitize the cancerous tissue to radiation. The radiosensitizing action of certain therapeutic agents can be at least partly assigned to their interaction with secondary low energy electrons (LEEs) that are generated along the track of the ionizing radiation. In the therapy of cancer DNA is an important target, as severe DNA damage like double strand breaks induce the cell death. As there is only a limited number of radiosensitizing agents in clinical practice, which are often strongly cytotoxic, it would be beneficial to get a deeper understanding of the interaction of less toxic potential radiosensitizers with secondary reactive species like LEEs. Beyond that LEEs can be generated by laser illuminated nanoparticles that are applied in photothermal therapy (PTT) of cancer, which is an attempt to treat cancer by an increase of temperature in the cells. However, the application of halogenated nucleobases in PTT has not been taken into account so far. In this thesis the interaction of the potential radiosensitizer 8-bromoadenine (8BrA) with LEEs was studied. In a first step the dissociative electron attachment (DEA) in the gas phase was studied in a crossed electron-molecular beam setup. The main fragmentation pathway was revealed as the cleavage of the C-Br bond. The formation of a stable parent anion was observed for electron energies around 0 eV. Furthermore, DNA origami nanostructures were used as platformed to determine electron induced strand break cross sections of 8BrA sensitized oligonucleotides and the corresponding nonsensitized sequence as a function of the electron energy. In this way the influence of the DEA resonances observed for the free molecules on the DNA strand breaks was examined. As the surrounding medium influences the DEA, pulsed laser illuminated gold nanoparticles (AuNPs) were used as a nanoscale electron source in an aqueous environment. The dissociation of brominated and native nucleobases was tracked with UV-Vis absorption spectroscopy and the generated fragments were identified with surface enhanced Raman scattering (SERS). Beside the electron induced damage, nucleobase analogues are decomposed in the vicinity of the laser illuminatednanoparticles due to the high temperatures. In order to get a deeper understanding of the different dissociation mechanisms, the thermal decomposition of the nucleobases in these systems was studied and the influence of the adsorption kinetics of the molecules was elucidated. In addition to the pulsed laser experiments, a dissociative electron transfer from plasmonically generated ”hot electrons” to 8BrA was observed under low energy continuous wave laser illumination and tracked with SERS. The reaction was studied on AgNPs and AuNPs as a function of the laser intensity and wavelength. On dried samples the dissociation of the molecule was described by fractal like kinetics. In solution, the dissociative electron transfer was observed as well. It turned out that the timescale of the reaction rates were slightly below typical integration times of Raman spectra. In consequence such reactions need to be taken into account in the interpretation of SERS spectra of electrophilic molecules. The findings in this thesis help to understand the interaction of brominated nucleobases with plasmonically generated electrons and free electrons. This might help to evaluate the potential radiosensitizing action of such molecules in cancer radiation therapy and PTT. N2 - Mit deutschlandweit über 200.000 Todesfällen pro Jahr ist Krebs die zweithäufigste Todesursache. In der Krebstherapie werden häufig Strahlenund Chemotherapie kombiniert, da das Krebsgewebe durch die Gabe bestimmter Chemotherapeutika, z.B. halogenierte Nukleinbasen, gegenüber ionisierender Strahlung sensibilisiert wird. Die Wirkung dieser sogenannten Radiosensibilatoren lässt sich zumindest teilweise auf ihre Wechselwirkung mit niederenergetischen Elektronen zurückführen, welche in hoher Zahl entlang der Trajektorie hochenergetischer Teilchen oder Photonen erzeugt werden. In der Krebstherapie ist die DNA ein wichtiger Angriffspunkt, da schwere DNA-Schäden wie Doppelstrangbrüche zum Zelltod führen können. In der klinischen Praxis ist die Anzahl der eingesetzten meist zytotoxischen Radiosensibilisatoren relativ begrenzt. Zur Verbesserung der bestehenden Therapien durch den Einsatz von Medikamenten mit geringeren Nebenwirkungen, ist es notwendig die Wechselwirkungen zwischen potentiellen Radiosensibilisatoren und reaktiven Sekundärteilchen wie niederenergetischen Elektronen besser zu verstehen. Neben der Strahlentherapie werden niederenergetische Elektronen auch durch Laserbestrahlung von plasmonischen Nanopartikeln erzeugt, welche in der Photothermaltherapie (PTT) Anwendung finden. Die mögliche Anwendung von halogenierten Nukleinbasen zur Verbesserung der Photothermaltherapie ist jedoch bisher noch nicht in Erwägung gezogen worden. Im Rahmen dieser kumulativen Dissertation wird die Wechselwirkung des potentiellen Radiosensibilisators 8-Bromoadenin (8BrA) mit niederenergetischen Elektronen untersucht. Unter Verwendung eines gekreuzten Molekül-Elektronenstrahls wurde in einem ersten Schritt die dissoziative Elektronenanlagerung (DEA) an 8BrA untersucht. Dabei zeigte sich, dass der Hauptzerfallskanal in dem Aufbrechen der C-Br Bindung besteht. Darüberhinausgehend wurde bei der Anlagerung von Elektronen mit einer Energie von 0 eV ein stabiles 8BrA Anion beobachtet. Um den Einfluss der DEA-Resonanzen, die für freie Moleküle in der Gasphase beobachtet wurden, auf die elektroneninduzierten DNA-Strangbrüche zu untersuchen wurden DNA- Origami-Nanostrukturen mit Elektronen bestrahlt. Die DNAOrigami-Strukturen wurden sowohl mit 8BrA modifizierten Oligonukleotiden und der nicht modifizierten Kontrollsequenz bestückt und die Strangbruch Wirkungsquerschnitte in Abhängigkeit von der Elektronenenergie bestimmt. DEA-Prozesse hängen stark von dem umgebenden Medium ab. Aus diesem Grund wurden laserbestrahlte Gold-Nanopartikel (AuNPs) als Elektronenquellen auf der Nanoebene verwendet. Der Zerfall von bromierten und unmodifizierten Nukleinbasen wurde mit UV-Vis-Absorptions-Spektroskopie verfolgt, während die Identifizierung der entstandenen Fragmente über Oberflächenverstärkte Ramanstreuung (SERS) erfolgte. Neben dem elektroneninduzierten Schaden, werden die Nukleinbasen in der Umgebung der AuNPs durch die hohen Temperaturen auch thermisch zersetzt. Um diese verschiedenen Prozesse auseinander halten zu können, wurde die thermische Zersetzung auf den laserbestrahlten AuNPs detailliert untersucht und der Einfluss der Adsorptionskinetik herausgearbeitet. Elektroneninduzierte Reaktionen auf Nanopartikeln finden nicht nur bei Bestrahlung mit intensiven Laser-Pulsen statt. Ein dissoziativer Elektronentransfer auf 8BrA, der zum Aufbrechen der C-Br Bindung führt, konnte ebenfalls während der Bestrahlung mit einem kontinuierlichen Laser geringer Intensität mit SERS beobachtet werden. Mit Hilfe von fraktaler Kinetik konnten dabei die Reaktionen auf getrockneten Proben beschrieben werden. Auf diese Art wurde die Reaktion sowohl auf AuNPs als auch auf AgNPs als Funktion der Laserintensität und -Wellenlänge untersucht. Ebenfalls in Lösung konnte das Auftrennen der C-Br Bindung beobachtet werden, wobei die Zeitskalen der Reaktion ein wenig kürzer als die typischen Integrationszeiten bei Ramanmessungen waren. Aus diesem Grund müssen Dissoziative-ElektronenTransfer- Reaktionen bei der Interpretation von SERS Spektren mit in Betracht gezogen werden. Die Ergebnisse dieser kumulativen Doktorarbeit fördern das Verständnis der Wechselwirkungen zwischen bromierten Nukleinbasen mit freien und plasmonisch erzeugten Elektronen. Dies könnte dabei helfen das Potential von 8BrA als möglicher Radiosensibilisator besser beurteilen zu können. KW - DNA damage KW - Radiosensitization KW - dissociative electron attachment KW - nanoparticles KW - plasmonic catalysis KW - DNA-Schädigung KW - dissoziative Elektronen Anlagerung KW - Nanopartikel KW - plasmonische Katalyse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407017 ER - TY - THES A1 - Shenar, Tomer T1 - Comprehensive analyses of massive binaries and implications on stellar evolution T1 - Umfassende Analysen massereicher Doppelsterne und Implikationen für die Sternentwicklung N2 - Via their powerful radiation, stellar winds, and supernova explosions, massive stars (Mini & 8 M☉) bear a tremendous impact on galactic evolution. It became clear in recent decades that the majority of massive stars reside in binary systems. This thesis sets as a goal to quantify the impact of binarity (i.e., the presence of a companion star) on massive stars. For this purpose, massive binary systems in the Local Group, including OB-type binaries, high mass X-ray binaries (HMXBs), and Wolf-Rayet (WR) binaries, were investigated by means of spectral, orbital, and evolutionary analyses. The spectral analyses were performed with the non-local thermodynamic equillibrium (non-LTE) Potsdam Wolf-Rayet (PoWR) model atmosphere code. Thanks to critical updates in the calculation of the hydrostatic layers, the code became a state-of-the-art tool applicable for all types of hot massive stars (Chapter 2). The eclipsing OB-type triple system δ Ori served as an intriguing test-case for the new version of the PoWR code, and provided key insights regarding the formation of X-rays in massive stars (Chapter 3). We further analyzed two prototypical HMXBs, Vela X-1 and IGR J17544-2619, and obtained fundamental conclusions regarding the dichotomy of two basic classes of HMXBs (Chapter 4). We performed an exhaustive analysis of the binary R 145 in the Large Magellanic Cloud (LMC), which was claimed to host the most massive stars known. We were able to disentangle the spectrum of the system, and performed an orbital, polarimetric, and spectral analysis, as well as an analysis of the wind-wind collision region. The true masses of the binary components turned out to be significantly lower than suggested, impacting our understanding of the initial mass function and stellar evolution at low metallicity (Chapter 5). Finally, all known WR binaries in the Small Magellanic Cloud (SMC) were analyzed. Although it was theoretical predicted that virtually all WR stars in the SMC should be formed via mass-transfer in binaries, we find that binarity was not important for the formation of the known WR stars in the SMC, implying a strong discrepancy between theory and observations (Chapter 6). N2 - Durch ihre intensive Strahlung, Sternwinde und Supernovaexplosionen tragen massereiche Sterne (Minitial & 8 M☉) erheblich zur Entwicklung von Galaxien bei. In den letzten Jahren wurde es immer klarer, dass sich die Mehrheit der massereichen Sterne in Doppelsternsystemen befindet. Die vorliegende Doktorarbeit hat das Ziel, den Einfluss dieser Tatsache auf die Entwicklung massereicher Sterne quantitativ zu untersuchen. Um dies zu erreichen, haben wir eine Analyse der Umläufe, Spektren und Entwicklung verschiedener Doppelsternsysteme in der lokalen Gruppe durchgeführt, die OB-Sterne, massereicher Röntgendoppelsterne (HMXBs) und Wolf-Rayet-(WR)-Doppelsterne einschließt. Die Spektralanalyse wurde mithilfe des Potsdam-Wolf-Rayet-(PoWR)-Modellatmosphären-Programms für Strahlungstransport in Abwesenheit von lokalem thermodynamischen Gleichgewicht (non-LTE) durchgeführt. Das PoWR-Programm wurde im Laufe der Arbeit aktualisiert, sodass die Berechnung der hydrostatischen Schichten des Sternes nun wesentlich genauer erfolgt, was die Verwendung dieses Programms für alle Typen heißer massereicher Sterne erlaubte (Kapitel 2). Das bedeckungsveränderliche Dreifachsternsystem δ Ori diente als Test für diese neue Version von PoWR, und lieferte wesentliche Informationen bezüglich der Entstehung von Röntgenstrahlung in massereichen Sternen (Kapitel 3). Die Analyse zweier prototypischer massereicher Röntgendoppelsterne, Vela X-1 und IGR J17544-2619, machte den Ursprung der Dichotomie der zwei Hauptklassen der Röntgendoppelsterne deutlich (Kapitel 4). Eine umfassende Analyse des Doppelsterns R145 in der Großen Magellanschen Wolke (LMC), der angeblich aus den massereichsten uns bekannten Sternen besteht, wurde durchgeführt. Mithilfe einer Dekomposition des Spektrums, einer Orbital- und Spektralanalyse, sowie einer Analyse der Kollision von Sternwinden in diesem System konnten wir zeigen, dass die Massen der Komponenten wesentlich kleiner sind als bisher angenommen. Dies ist ein wichtiger Beitrag zu unserem Verständnis der Anfangsmassenfunktion und der Entwicklung massereicher Sterne in Umgebungen geringer Metalizität (Kapitel 5). Schließlich wurde die Gesamtpopulation der WR-Doppelsterne in der Kleinen Magellanschen Wolke (SMC) analysiert. Im Widerspruch zur theoretischen Vorhersage, alle WR-Doppelsterne in der SMC seien dank Massentransfer in Doppelsternsystemen entstanden, finden wir, dass Massentransfer unerheblich für die Entstehung der uns bekannten WR-Sterne in der SMC war (Kapitel 6). KW - massive stars KW - Wolf-Rayet KW - stellar evolution KW - stellar winds KW - binary stars KW - massereiche Sterne KW - Wolf-Rayet KW - Sternentwicklung KW - Sternwinde KW - Doppelsterne Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104857 ER - TY - THES A1 - Siddiqui, Tarique Adnan T1 - Long-term investigation of the lunar tide in the equatorial electrojet during stratospheric sudden warmings T1 - Analyse von Langzeit-Registrierungen zur Untersuchung der lunaren Gezeiten des äquatorialer Elektrojet bei plötzlichen stratosphärischen Erwärmungsereignissen N2 - The ionosphere, which is strongly influenced by the Sun, is known to be also affected by meteorological processes. These processes, despite having their origin in the troposphere and stratosphere, interact with the upper atmosphere. Such an interaction between atmospheric layers is known as vertical coupling. During geomagnetically quiet times, when near-Earth space is not under the influence of solar storms, these processes become important drivers for ionospheric variability. Studying the link between these processes in the lower atmosphere and the ionospheric variability is important for our understanding of fundamental mechanisms in ionospheric and meteorological research. A prominent example of vertical coupling between the stratosphere and the ionosphere are the so-called stratospheric sudden warming (SSW) events that occur usually during northern winters and result in an increase in the polar stratospheric temperature and a reversal of the circumpolar winds. While the phenomenon of SSW is confined to the northern polar stratosphere, its influence on the ionosphere can be observed even at equatorial latitudes. During SSW events, the connection between the polar stratosphere and the equatorial ionosphere is believed to be through the modulation of global atmospheric tides. These tides are fundamental for the ionospheric E-region wind dynamo that generates electric fields and currents in the ionosphere. Observations of ionospheric currents indicate a large enhancement of the semidiurnal lunar tide in response to SSW events. Thus, the semidiurnal lunar tide becomes an important driver of ionospheric variability during SSW events. In this thesis, the ionospheric effect of SSW events is investigated in the equatorial region, where a narrow but an intense E-region current known as the equatorial electrojet (EEJ) flows above the dip equator during the daytime. The day-to-day variability of the EEJ can be determined from magnetic field records at geomagnetic observatories close to the dip equator. Such magnetic data are available for several decades and allows to investigate the impact of SSW events on the EEJ and, even more importantly, helps in understanding the effects of SSW events on the equatorial ionosphere. An excellent long-term record of the geomagnetic field at the equator from 1922 onwards is available for the observatory Huancayo in Peru and is extensively utilized in this study. The central subject of this thesis is the investigation of lunar tides in the EEJ during SSW events by analyzing long time series. This is done by estimating the lunar tidal amplitude in the EEJ from the magnetic records at Huancayo and by comparing them to measurements of the polar stratospheric wind and temperature, which led to the identification of the known SSW events from 1952 onwards. One goal of this thesis is to identify SSW events that predate 1952. To this end, superposed epoch analysis (SEA) is employed to establish a relationship between the lunar tidal power and the wind and temperature conditions in the lower atmosphere. A threshold value for the lunar tidal power is identified that is discriminative for the known SSW events. This threshold is then used to identify lunar tidal enhancements, which are indicative for any historic SSW events prior to 1952. It can be shown, that the number of lunar tidal enhancements and thus the occurrence frequency of historic SSW events between 1926 and 1952 is similar to the occurrence frequency of the known SSW events from 1952 onwards. Next to the classic SSW definition, the concept of polar vortex weakening (PVW) is utilized in this thesis. PVW is defined for higher latitudes and altitudes (≈ 40km) than the classical SSW definition (≈ 32km). The correlation between the timing and magnitude of lunar tidal enhancements in the EEJ and the timing and magnitude of PVW is found to be better than for the classic SSW definition. This suggests that the lunar tidal enhancements in the EEJ are closely linked to the state of the middle atmosphere. Geomagnetic observatories located in different longitudes at the dip equator allow investigating the longitudinally dependent variability of the EEJ during SSW events. For this purpose, the lunar tidal enhancements in the EEJ are determined for the Peruvian and Indian sectors during the major SSW events of the years 2006 and 2009. It is found that the lunar tidal amplitude shows similar enhancements in the Peruvian sector during both SSW events, while the enhancements are notably different for the two events in the Indian sector. In summary, this thesis shows that lunar tidal enhancements in the EEJ are indeed correlated to the occurrence of SSW events and they should be considered a prominent driver of low latitude ionospheric variability. Secondly, lunar tidal enhancements are found to be longitudinally variable. This suggests that regional effects, such as ionospheric conductivity and the geometry and strength of the geomagnetic field, also play an important role and have to be considered when investigating the mechanisms behind vertical coupling. N2 - Die Ionosphäre, die hauptsächlich durch Prozesse solaren Ursprungs beeinflusst wird, wird auch durch meteorologische Prozesse beeinflusst. Obwohl diese Prozesse ihren Ursprung in der Troposphäre und Stratosphäre haben, wechselwirken sie mit der oberen Atmosphäre. Eine solche Wechselwirkung zwischen atmosphärischen Schichten wird als vertikale Kopplung bezeichnet. Bei magnetisch ruhigen Bedingungen, wenn der erdnahe Weltraum nicht durch solare Stürme beeinflusst wird, werden diese Prozesse zu wichtigen Einflussfaktoren für die ionosphärische Variabilität. Für unser Verständnis von fundamentalen Mechanismen im Forschungsfeld der Ionosphäre und der Meteorologie ist es wichtig, die Verbindung zwischen diesen Prozessen in der unteren Atmosphäre und der ionosphärischen Variabilität zu ermitteln. Ein wichtiges Beispiel für die vertikale Kopplung zwischen Stratosphäre und Ionosphäre sind die sogenannten plötzlichen stratosphärischen Erwärmungsereignisse (sudden stratospheric warming, SSW), die üblicherweise im Winter stattfinden und zu einer Erhöhung der stratosphärischen Temperatur und einer Umkehrung der zirkumpolarenWinde führen. Während das Phänomen des SSW auf die nördliche polare Stratosphäre beschränkt ist, kann sein Einfluss auf die Ionosphäre sogar in äquatorialen Breiten beobachtet werden. Bei SSW - Ereignissen wird vermutet, dass die Verbindung zwischen der polaren Stratosphäre und der äquatorialen Ionosphäre durch die Modulation globaler atmosphärischer Gezeiten erfolgt. Diese Gezeiten sind grundlegend für den Wind-Dynamo in der ionosphärischen E-Region, der dort elektrische Felder und Ströme erzeugt. Beobachtungen ionosphärischer Ströme zeigen, dass die semidiurnalen lunaren Gezeiten als Reaktion auf ein SSW - Ereignis eine starke Erhöhung erfahren. Damit werden die semidiurnalen lunaren Gezeiten zu einem wichtigen Faktor für die ionosphärische Variabilität während eines SSW - Ereignis. In dieser Dissertation wird der äquatoriale ionosphärische Effekt von SSW - Ereignissen untersucht. In der E-Region über dem magnetischen Äquator fließt tagsüber ein schmaler aber intensiver Strom, der als äquatorialer Strahlstrom oder Elektrojet (EEJ) bekannt ist. Der von Tag zu Tag unterschiedlich ausgeprägte EEJ kann aus Magnetfeldregistrierungen von geomagnetischen Observatorien nahe dem magnetischen Äquator abgeschätzt werden. Solche Magnetfeldregistrierungen stehen über mehrere Jahrzehnte zur Verfügung und erlauben es, den Einfluss der SSW-Ereignisse auf den EEJ zu untersuchen, und, noch wesentlicher, helfen sie, den Einfluss von SSW-Ereignissen auf die äquatoriale Ionosphäre zu verstehen. Eine ausgezeichnete, im Jahre 1922 beginnende Langzeit-Registrierung des Magnetfeldes am Äquator gibt es für das Observatorium Huancayo in Peru. Sie wird in der vorliegenden Arbeit intensiv genutzt. Das zentrale Thema der Dissertation ist die Analyse von Langzeit - Registrierungen zur Untersuchung der lunaren Gezeiten des EEJ bei SSW - Ereignissen. Dazu wird die Amplitude der lunaren Gezeiten des EEJ aus den Magnetfeldregistrierungen des Observatoriums Huancayo bestimmt und mit den Messungen des polaren stratosphärischen Windes und der Temperatur verglichen, die zur Identifizierung der bekannten SSW - Ereignisse seit 1952 geführt haben. Ein Ziel der vorliegenden Arbeit ist es, auch SSW - Ereignisse vor 1952 zu identifizieren. Dahingehend wird eine Superposed Epoch Analysis (SEA) benutzt, und damit wird eine Beziehung zwischen die Leistung der lunaren Gezeiten und den Wind- und Temperaturbedingungen in der unteren Atmosphäre hergestellt. So wird ein Grenzwert für die Leistung der lunaren Gezeiten für die bekannten SSW - Ereignisse ermittelt. Dieser Grenzwert wird dann benutzt, um eine Verstärkung der lunaren Gezeiten zu identifizieren, die historische SSW - Ereignisse vor 1952 anzeigt. Es zeigt sich, dass die Häufigkeit der Verstärkung der lunaren Gezeiten, und damit die Häufigkeit der historischen SSW - Ereignisse zwischen 1926 und 1952, ähnlich ist zu der Häufigkeit der bekannten SSW - Ereignisse seit 1952 ist. Neben der klassischen SSW - Definition wird in dieser Dissertation das Konzept des Polar Vortex Weakening (PVW) genutzt. Das PVW ist für höhere Breiten und Höhenlagen (40 km) festgelegt als die klassische SSW - Definition (32 km). Die Korrelation zwischen dem Zeitpunkt und der Stärke der Verstärkung der lunaren Gezeiten des EEJ einerseits und dem Zeitpunkt und der Stärke des PVW andererseits ist besser als die entsprechende Korrelation bei Anwendung der klassischen SSW - Definition. Dies lässt darauf schließen, dass die Verstärkung der lunaren Gezeiten des EEJ eng mit dem Zustand der mittleren Atmosphäre verknüpft ist. Geomagnetische Observatorien, die bei verschiedenen Längengraden am magnetischen Äquator liegen, erlauben es, die längengradabhängige Variabilität des EEJ bei SSW - Ereignissen zu untersuchen. Zu diesem Zweck wird die Verstärkung der lunaren Gezeiten fär zwei ausgeprägte SSW - Ereignisse in den Jahren 2006 und 2009 im peruanischen und im indischen Sektor bestimmt. Es zeigt sich, dass die Amplitude der lunaren Gezeiten im peruanischen Sektor bei beiden Ereignissen eine ähnliche Verstärkung aufweist, während die Verstärkung im indischen Sektor für die zwei Ereignisse deutliche Unterschiede aufweist. Zusammenfassend kann gesagt werden, dass die Verstärkung der lunaren Gezeiten des EEJ in der Tat mit dem Auftreten von SSW - Ereignissen korreliert ist und dass sie als wichtiger Einflussfaktor auf die Variabilität der Ionosphäre der niederen Breiten berücksichtigt werden muss. Außerdem konnte gezeigt werden, dass die Verstärkung der lunaren Gezeiten eine längengradabhängige Variabilität aufweist. Dies legt nahe, dass regionale Gegebenheiten, wie die Leitfähigkeit der Ionosphäre und die Geometrie und Stärke des Erdmagnetfeldes, bei der vertikalen Kopplung auch eine wichtige Rolle spielen und bei der Untersuchung der dabei zugrundeliegenden Mechanismen berücksichtigt werden müssen. KW - lunar tides KW - equatorial electrojet KW - sudden stratospheric warming KW - vertical coupling KW - lunare Gezeiten KW - äquatorialer Elektrojet KW - plötzliche stratosphärische Erwärmungsereignisse KW - vertikale Kuppelung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406384 ER - TY - THES A1 - Solms, Alexander Maximilian T1 - Integrating nonlinear mixed effects and physiologically–based modeling approaches for the analysis of repeated measurement studies T1 - Integration nicht-linearer gemischter Modelle und physiologie-basierte Modellierung Ansätze in die Auswertung longitudinaler Studien BT - with applications in quantitative pharmacology and quantitative psycholinguistics N2 - During the drug discovery & development process, several phases encompassing a number of preclinical and clinical studies have to be successfully passed to demonstrate safety and efficacy of a new drug candidate. As part of these studies, the characterization of the drug's pharmacokinetics (PK) is an important aspect, since the PK is assumed to strongly impact safety and efficacy. To this end, drug concentrations are measured repeatedly over time in a study population. The objectives of such studies are to describe the typical PK time-course and the associated variability between subjects. Furthermore, underlying sources significantly contributing to this variability, e.g. the use of comedication, should be identified. The most commonly used statistical framework to analyse repeated measurement data is the nonlinear mixed effect (NLME) approach. At the same time, ample knowledge about the drug's properties already exists and has been accumulating during the discovery & development process: Before any drug is tested in humans, detailed knowledge about the PK in different animal species has to be collected. This drug-specific knowledge and general knowledge about the species' physiology is exploited in mechanistic physiological based PK (PBPK) modeling approaches -it is, however, ignored in the classical NLME modeling approach. Mechanistic physiological based models aim to incorporate relevant and known physiological processes which contribute to the overlying process of interest. In comparison to data--driven models they are usually more complex from a mathematical perspective. For example, in many situations, the number of model parameters outrange the number of measurements and thus reliable parameter estimation becomes more complex and partly impossible. As a consequence, the integration of powerful mathematical estimation approaches like the NLME modeling approach -which is widely used in data-driven modeling -and the mechanistic modeling approach is not well established; the observed data is rather used as a confirming instead of a model informing and building input. Another aggravating circumstance of an integrated approach is the inaccessibility to the details of the NLME methodology so that these approaches can be adapted to the specifics and needs of mechanistic modeling. Despite the fact that the NLME modeling approach exists for several decades, details of the mathematical methodology is scattered around a wide range of literature and a comprehensive, rigorous derivation is lacking. Available literature usually only covers selected parts of the mathematical methodology. Sometimes, important steps are not described or are only heuristically motivated, e.g. the iterative algorithm to finally determine the parameter estimates. Thus, in the present thesis the mathematical methodology of NLME modeling is systemically described and complemented to a comprehensive description, comprising the common theme from ideas and motivation to the final parameter estimation. Therein, new insights for the interpretation of different approximation methods used in the context of the NLME modeling approach are given and illustrated; furthermore, similarities and differences between them are outlined. Based on these findings, an expectation-maximization (EM) algorithm to determine estimates of a NLME model is described. Using the EM algorithm and the lumping methodology by Pilari2010, a new approach on how PBPK and NLME modeling can be combined is presented and exemplified for the antibiotic levofloxacin. Therein, the lumping identifies which processes are informed by the available data and the respective model reduction improves the robustness in parameter estimation. Furthermore, it is shown how apriori known factors influencing the variability and apriori known unexplained variability is incorporated to further mechanistically drive the model development. Concludingly, correlation between parameters and between covariates is automatically accounted for due to the mechanistic derivation of the lumping and the covariate relationships. A useful feature of PBPK models compared to classical data-driven PK models is in the possibility to predict drug concentration within all organs and tissue in the body. Thus, the resulting PBPK model for levofloxacin is used to predict drug concentrations and their variability within soft tissues which are the site of action for levofloxacin. These predictions are compared with data of muscle and adipose tissue obtained by microdialysis, which is an invasive technique to measure a proportion of drug in the tissue, allowing to approximate the concentrations in the interstitial fluid of tissues. Because, so far, comparing human in vivo tissue PK and PBPK predictions are not established, a new conceptual framework is derived. The comparison of PBPK model predictions and microdialysis measurements shows an adequate agreement and reveals further strengths of the presented new approach. We demonstrated how mechanistic PBPK models, which are usually developed in the early stage of drug development, can be used as basis for model building in the analysis of later stages, i.e. in clinical studies. As a consequence, the extensively collected and accumulated knowledge about species and drug are utilized and updated with specific volunteer or patient data. The NLME approach combined with mechanistic modeling reveals new insights for the mechanistic model, for example identification and quantification of variability in mechanistic processes. This represents a further contribution to the learn & confirm paradigm across different stages of drug development. Finally, the applicability of mechanism--driven model development is demonstrated on an example from the field of Quantitative Psycholinguistics to analyse repeated eye movement data. Our approach gives new insight into the interpretation of these experiments and the processes behind. N2 - Für die Erforschung und Entwicklung eines neuen Arzneistoffes wird die sichere und wirksame Anwendung in präklinischen und klinischen Studien systematisch untersucht. Ein wichtiger Bestandteil dieser Studien ist die Bestimmung der Pharmakokinetik (PK), da über diese das Wirkungs- und Nebenwirkungsprofil maßgeblich mitbestimmt wird. Um die PK zu bestimmen wird in der Studienpopulation die Wirkstoffkonzentration im Blut wiederholt über die Zeit gemessen. Damit kann sowohl der Konzentrations-Zeit-Verlauf als auch die dazugehörige Variabilität in der Studienpopulation bestimmt werden. Darüber hinaus ist ein weiteres Ziel, die Ursachen dieser Variabilität zu identifizieren. Fär die Auswertung der Daten werden nichtlineare, gemischte Effektmodelle (NLME) eingesetzt. Im Vorfeld der klinischen Studien sind bereits viele Eigenschaften des Wirkstoffes bekannt, da der Wirkstoff-Testung am Menschen die Bestimmung der PK an verschiedenen Tierspezies voraus geht. Auf Basis dieser wirkstoffspezifischen Daten und des Wissens um die spezifische humane Physiologie können mittels mechanistisch physiologiebasierter Modelle Vorhersagen für die humane PK getroffen werden. Bei der Analyse von PK Daten mittels NLME Modellen wird dieses vorhandene Wissen jedoch nicht verwertet. In physiologiebasierten Modellen werden physiologische Prozesse, die die PK bestimmen und beeinflussen können, ber+cksichtigt. Aus mathematischer Sicht sind solche mechanistischen Modelle im Allgemeinen deutlich komplexer als empirisch motivierte Modelle. In der Anwendung kommt es deswegen häufig zu Situationen, in denen die Anzahl der Modellparameter die Anzahl der zugrunde liegenden Beobachtungen übertrifft. Daraus folgt unter anderem, dass die Parameterschätzung, wie sie in empirisch motivierten Modellen genutzt wird, in der Regel unzuverlässig bzw. nicht möglich ist. In Folge dessen werden klinische Daten in der mechanistischen Modellierung meist nur zur Modellqualifizierung genutzt und nicht in die Modell(weiter)entwicklung integriert. Ein weiterer erschwerender Umstand, NLME und PBPK Modelle in der Anwendung zu kombinieren, beruht auch auf der Komplexität des NLME Ansatzes. Obwohl diese Methode seit Jahrzehnten existiert, sind in der Literatur nur ausgewählte Teilstücke der zugrunde liegenden Mathematik beschrieben und hergeleitet; eine lückenlose Beschreibung fehlt. Aus diesem Grund werden in der vorliegenden Arbeit systematisch die Methodik und mathematischen Zusammenhänge des NLME Ansatzes, von der ursprüngliche Idee und Motivation bis zur Parameterschätzung beschrieben. In diesem Kontext werden neue Interpretationen der unterschiedlichen Methoden, die im Rahmen der NLME Modellierung verwendet werden, vorgestellt; zudem werden Gemeinsamkeiten und Unterschiede zwischen diesen herausgearbeitet. Mittels dieser Erkenntnisse wird ein Expectation-Maximization (EM) Algorithmus zur Parameterschätzung in einer NLME Analyse beschrieben. Mittels des neuen EM Algorithmus, kombiniert mit dem Lumping-Ansatz von Pilari und Huisinga (S. Pilari, W. Huisinga, JPKPD Vol. 37(4), 2010.) wird anhand des Antibiotikums Levofloxacin ein neuer konzeptioneller Ansatz entwickelt, der PBPK- und NLME-Modellierung zur Datenanalyse integriert. Die Lumping-Methode definiert hierbei, welche Prozesse von den verfügbaren Daten informiert werden, sie verbessert somit die Robustheit der Parameterschätzung. Weiterhin wird gezeigt, wie a-priori Wissen über Variabilität und Faktoren, die diese beeinflussen, sowie unerklärte Variabilität in das Modell integriert werden können. Ein elementarer Vorteil von PBPK Modellen gegenüber empirisch motivieren PK Modellen besteht in der Möglichkeit, Wirkstoffkonzentrationen innerhalb von Organen und Gewebe im Körper vorherzusagen. So kann das PBPK-Modell für Levofloxacin genutzt werden, um Wirkstoffkonzentrationen innerhalb der Gewebe vorherzusagen, in denen typischerweise Infektionen auftreten. Für Muskel- und Fettgewebe werden die PBPK-Vorhersagen mit Mikrodialyse Gewebemessungen verglichen. Die gute übereinstimmung von PBPK-Modell und Mikrodialyse stellt eine noch nicht vorhanden Validierung des PBPK-Gewebemodells im Menschen dar. In dieser Dissertation wird gezeigt, wie mechanistische PBPK Modelle, die in der Regel in der frühen Phase der Arzneimittelentwicklung entwickelt werden, erfolgreich zur Analyse von klinischen Studien eingesetzt werden können. Das bestehende Wissen über den neuen Wirkstoff wird somit gezielt genutzt und mit klinischen Daten von Probanden oder Patienten aktualisiert. Im Fall von Levofloxacin konnte Variabilität in mechanistischen Prozessen identifiziert und quantifiziert werden. Dieses Vorgehen liefert einen weiteren Beitrag zum learn & confirm Paradigma im Forschungs- und Entwicklungsprozess eines neuen Wirkstoffes. Abschließend wird anhand eines weiteren real world-Beispieles aus dem Bereich der quantitativen Psycholinguistik die Anwendbarkeit und der Nutzen des vorgestellten integrierten Ansatz aus mechanistischer und NLME Modellierung in der Analyse von Blickbewegungsdaten gezeigt. Mittels eines mechanistisch motivierten Modells wird die Komplexität des Experimentes und der Daten abgebildet, wodurch sich neue Interpretationsmöglichkeiten ergeben. KW - NLME KW - PBPK KW - EM KW - lumping KW - popPBPK KW - mechanistic modeling KW - population analysis KW - popPK KW - microdialysis KW - nicht-lineare gemischte Modelle (NLME) KW - physiologie-basierte Pharmacokinetic (PBPK) KW - EM KW - Lumping KW - popPBPK KW - popPK KW - mechanistische Modellierung KW - Populations Analyse KW - Microdialyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397070 ER - TY - THES A1 - Theuring, Philipp Christian T1 - Suspended sediments in the Kharaa River, sources and impacts T1 - Feinsedimente im Kharaa Fluss, Quellen und Auswirkungen N2 - Anthropogenically amplified erosion leads to increased fine-grained sediment input into the fluvial system in the 15.000 km2 Kharaa River catchment in northern Mongolia and constitutes a major stressing factor for the aquatic ecosystem. This study uniquely combines the application of intensive monitoring, source fingerprinting and catchment modelling techniques to allow for the comparison of the credibility and accuracy of each single method. High-resolution discharge data were used in combination with daily suspended solid measurements to calculate the suspended sediment budget and compare it with estimations of the sediment budget model SedNet. The comparison of both techniques showed that the development of an overall sediment budget with SedNet was possible, yielding results in the same order of magnitude (20.3 kt a- 1 and 16.2 kt a- 1). Radionuclide sediment tracing, using Be-7, Cs-137 and Pb-210 was applied to differentiate sediment sources for particles < 10μm from hillslope and riverbank erosion and showed that riverbank erosion generates 74.5% of the suspended sediment load, whereas surface erosion contributes 21.7% and gully erosion only 3.8%. The contribution of the single subcatchments of the Kharaa to the suspended sediment load was assessed based on their variation in geochemical composition (e.g. in Ti, Sn, Mo, Mn, As, Sr, B, U, Ca and Sb). These variations were used for sediment source discrimination with geochemical composite fingerprints based on Genetic Algorithm driven Discriminant Function Analysis, the Kruskal–Wallis H-test and Principal Component Analysis. The contributions of the individual sub-catchment varied from 6.4% to 36.2%, generally showing higher contributions from the sub-catchments in the middle, rather than the upstream portions of the study area. The results indicate that river bank erosion generated by existing grazing practices of livestock is the main cause for elevated fine sediment input. Actions towards the protection of the headwaters and the stabilization of the river banks within the middle reaches were identified as the highest priority. Deforestation and by lodging and forest fires should be prevented to avoid increased hillslope erosion in the mountainous areas. Mining activities are of minor importance for the overall catchment sediment load but can constitute locally important point sources for particular heavy metals in the fluvial system. N2 - Durch Landnutzung erhöhte Erosion führt zu verstärktem Eintrag von Feinsedimenten im 15.000 km2 großen Einzugsgebiet des Kharaa in der nördlichen Mongolei. Diese Einträge stellen einen starken Stressor für das aquatische Ökosystem dar. Im Rahmen dieser Studie werden auf neuartige Weise verschiedene Ansätze zur Untersuchung der Feinsedimentdynamik im Einzugsgebiet kombiniert. Der Vergleich der Ergebnisse aus zeitlich hochaufgelösten Abfluss- und Schwebstoffanalysen, Sedimentbudgetmodellierung und „Sediment Source Fingerprinting“ Techniken erlaubt eine Bewertung der Genauigkeit und Anwendbarkeit jeder einzelnen Methodik im Untersuchungsgebiet. Das anhand von Abflussund Schwebstoffmessdaten berechnete Sedimentbudget am Gebietsauslass wurde mit dem mittels des Sedimentbudgetmodels SedNet berechneten Sedimentbudget verglichen. Die Ergebnisse von des aus Abfluss- und Schwebstoffmessdaten berechneten Sedimentbudgets (20,3 kt a- 1) und der mittels SedNet berechneten Werte (16,2 kt a- 1) zeigen eine befriedigende Übereinstimmung und bekräftigen die Anwendbarkeit des Models. Zur Unterscheidung der Herkunft der Feinsedimente hinsichtlich des dominanten Erosionsprozesses wurde die Sedimentfraktion < 10μm hinsichtlich der Konzentrationen der Radioisotope Be-7, Cs-137 und Pb-210 analysiert. Die Ergebnisse zeigen, dass Gerinneerosion für 74.5% der Suspensionsfracht verantwortlich ist und Einträge durch Flächenerosion 21.7% und durch Gully-erosion nur 3.8% beitragen. Zur Untersuchung der Anteile der Teileinzugsgebiete an der Gesamtsuspensionsfracht am Gebietsauslass wurden die Sedimente der Teilgebiete hinsichtlich der Variation ihrer geochemischen Zusammensetzung untersucht (z.B. Ti, Sn, Mo, Mn, As, Sr, B, U, Ca und Sb). Anhand der Zusammensetzung wurde jeweils ein spezifischer “Fingerabdruck” für Sedimente aus spezifischen Teileinzugsgebieten definiert. Mittels Diskriminanzanalyse, Kruskal–Wallis H-test und Hauptkomponentenanalyse konnten die Beiträge der Teileinzugsgebiete an der Gesamtfracht mit einem Mischungsmodel berechnet werden. Generell trugen die oberläufigen Teileinzugsgebiete am geringsten, und die mittelläufigen am stärksten zur Sediment Fracht bei. Die Ergebnisse der Studie zeigen, dass durch Überweidung begünstigte Ufererosion für den Hauptteil der Suspensionsfracht im Kharaa Fluss verantwortlich ist. Zur Verringerung des Schwebstoffeintrags in den Fluss werden Maßnahmen zur Uferbefestigung, insbesondere der Schutz und die Wiederherstellung der Ufervegetation als primäre Maßnahmen empfohlen. KW - sediment source fingerprinting KW - Mongolia KW - suspended sediments KW - sediment transport modelling KW - Mongolei KW - Sedimentquellenidentifizierung KW - Feinsedimente KW - Sedimentfracht Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410550 ER - TY - THES A1 - Thielemann-Kühn, Nele T1 - Optically induced ferro- and antiferromagnetic dynamics in the rare-earth metal dysprosium T1 - Optisch induzierte ferro- und antiferromagnetische Dynamik im Seltenerdmetall Dysprosium N2 - Approaching physical limits in speed and size of today's magnetic storage and processing technologies demands new concepts for controlling magnetization and moves researches on optically induced magnetic dynamics. Studies on photoinduced magnetization dynamics and their underlying mechanisms have been primarily performed on ferromagnetic metals. Ferromagnetic dynamics bases on transfer of the conserved angular momentum connected with atomic magnetic moments out of the parallel aligned magnetic system into other degrees of freedom. In this thesis the so far rarely studied response of antiferromagnetic order to ultra-short optical laser pulses in a metal is investigated. The experiments were performed at the FemtoSpex slicing facility at the storage ring BESSY II, an unique source for ultra-short elliptically polarized x-ray pulses. Laser-induced changes of the 4f-magnetic order parameter in ferro- and antiferromagnetic dysprosium (Dy), were studied by x-ray methods, which yield directly comparable quantities. The discovered fundamental differences in the temporal and spatial behavior of ferro- and antiferrmagnetic dynamics are assinged to an additional channel for angular momentum transfer, which reduces the antiferromagnetic order by redistributing angular momentum within the non-parallel aligned magnetic system, and hence conserves the zero net magnetization. It is shown that antiferromagnetic dynamics proceeds considerably faster and more energy-efficient than demagnetization in ferromagnets. By probing antiferromagnetic order in time and space, it is found to be affected along the whole sample depth of an in situ grown 73 nm tick Dy film. Interatomic transfer of angular momentum via fast diffusion of laser-excited 5d electrons is held responsible for the out-most long-ranging effect. Ultrafast ferromagnetic dynamics can be expected to base on the same origin, which however leads to demagnetization only in regions close to interfaces caused by super-diffusive spin transport. Dynamics due to local scattering processes of excited but less mobile electrons, occur in both magnetic alignments only in directly excited regions of the sample and on slower pisosecond timescales. The thesis provides fundamental insights into photoinduced magnetic dynamics by directly comparing ferro- and antiferromagnetic dynamics in the same material and by consideration of the laser-induced magnetic depth profile. N2 - Die Geschwindigkeit und Datendichte in heutigen Technologien zur magnetischen Datenspeicherung und -verarbeitung erreichen allmählich physikalische Grenzen. Neue Konzepte zur Manipulation von Magnetisierung sind deshalb erforderlich, was die Forschung an optisch induzierter Magnetodynamik motiviert. Studien zur magnetischen Dynamik ausgelöst durch Femtosekunden-Laserpulse und die ihr zugrunde liegenden Mechanismen stützen sich vorwiegend auf ferromagnetische Metalle. Die Manipulation ferromagnetischer Ordnung basiert aufgrund physikalischer Erhaltungssätze auf dem Transfer des mit atomaren magnetischen Momenten verknüpften Drehimpulses, in andere Freiheitsgrade wie das Gitter oder räumlich in Bereiche mit anderen magnetischen Eigenschaften. Gegenstand dieser Arbeit ist die bisher weniger umfassend untersuchte Reaktion antiferromagnetischer Ordnung auf optische Anregung. Die hier vorgestellten Experimente wurden an der FemtoSpex Slicing Facility, einer einzigartigen Quelle für ultrakurze elliptisch polarisierte Röntgenpulse am Elektronenspeicherring BESSY II durchgeführt. Im 4f-Metall Dysprosium (Dy), das je nach Temperatur ferro- oder antiferromagnetisch ist, wurden optisch induzierte Änderungen der magnetischen Ordnung mit Röntgenmethoden untersucht, aus denen sich der jeweilige 4f-Ordnungsparameter direkt vergleichbar ableiten lässt. Es wird ein sowohl zeitlich als auch räumlich fundamental unterschiedliches Verhalten der ferro- und antiferromagnetischen Dynamik im Femtosekundenbereich nachgewiesen: Antiferromagnetische Ordnung wird wesentlich schneller und energieeffizienter reduziert als ferromagnetische Ordnung. Zeit- und tiefenaufgelöste Messungen an antiferromagnetischem Dy zeigen, dass dieser Effekt zudem äußerst weitreichend ist und die magnetische Ordnung entlang der gesamten Probentiefe eines 73 nm dicken in situ gewachsenen Dy-Films reduziert. Verantwortlich dafür ist ein hier identifizierter Kanal für Drehimpulstransfer, der es aufgrund der nicht-parallelen Orientierung der atomaren magnetischen Momente in Antiferromagneten erlaubt, die entsprechende Ordnung durch eine Umverteilung des Drehimpulses innerhalb des magnetischen Systems zu reduzieren. Dieser Kanal wird zugänglich durch schnelle Diffusion von laserangeregten 5d-Elektronen, die interatomar Drehimpuls übertragen. Die Experimente deuten darauf hin, dass ultraschnelle ferromagnetische Dynamik ebenfalls stark auf Diffusion mobiler Elektronen basiert. Allerdings sorgt der Effekt hier ausschließlich für Demagnetisierung in grenzflächennahen Bereichen durch Spintransport in magnetisch andersartige Gebiete. Auf längeren Picosekundenzeitskalen wird magnetische Dynamik in der antiferro- und voraussichtlich auch in der ferromagnetischen Phase von Dy durch lokale Streuprozesse angeregter aber weniger beweglicherer Elektronen, zum Beispiel mit Phononen hervorgerufen, allerdings nur in direkt angeregten Teilen der Probe. Die vorliegende Arbeit gibt durch den direkten Vergleich ferro- und antiferromagnetischer Dynamik und der Berücksichtigung des optisch induzierten magnetischen Tiefenprofils Einblicke in die fundamentalen Ursprünge optisch induzierter magnetischer Dynamik. KW - antiferromagnetism KW - ferromagnetism KW - ultrafast phenomena KW - x-ray magnetic circular dichroism (XMCD) KW - x-ray magnetic resonant diffraction (XMRD) KW - rare-earth metals KW - pump-probe experiment KW - optically induced dynamics KW - Antiferromagnetismus KW - Ferromagnetismus KW - ultraschnelle Phänomene KW - magnetischer Zirkulardichroismus KW - magnetische resonante Beugung KW - seltene Erden KW - Anregungs-Abfrage-Experiment KW - optisch induzierte Dynamik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402994 ER - TY - THES A1 - Thim, Christof T1 - Technologieakzeptanz in Organisationen T1 - Technology acceptance in organisations BT - ein Simulationsansatz N2 - Technological change is influencing organisations in their operation. It is used as a means to enhance productivity or to gain momentum on the market. The success of introducing new technologies into the organisation relies heavily on user acceptance. Existing explanations like the Diffusion of Innovation Theory (Rogers, 2003) and the Technology Acceptance Model and its extensions (Davis, 1989; Venkatesh and Davis, 1996; Venkatesh and Davis, 2000; Venkatesh, Morris, et al., 2003) do not address the organisational context sufficiently. Their models concentrate on technology adoption in a non-mandatory environment. Furthermore they do not encompass resistance against a new technology. Hence these models cannot be used to analyse the acceptance and usage decision process within organisations. This thesis therefore aims at investigating the organisational dynamics evoked by the introduction of new technologies with regard to acceptance and usage. More precisely it answers the question, whether different organisation types exert varying influences on their members and produce different patterns of acceptance and usage. The groundwork to achieve this insight is the synthesis and extension of different models of technology acceptance and organisational governance. The resulting model describes the development dynamics within an organisation and model combines two perspectives. On one hand the individual level encompasses socio-psychological aspects and individual decision making processes. This perspective is based on the aforementioned theories of individual acceptance, which are extended with different fit theories (Goodhue and Thompson, 1995; Floyd, 1986; Liu, Lee, and Chen, 2011; Parkes, 2013). Furthermore the resistance to new technology is introduced into the analysis as another possible course of action (Patsiotis, Hughes, and Webber, 2012). The organisational perspective on the other hand embeds the individual acceptance and usage decision into a social context. The interaction between organisation members based on the observation of others and the internalisation of social pressure are introduced as determinants of acceptance and usage. Furthermore organisational governance structures moderate this social influence and specify its impact. The relationship between governance and social influence is elaborated through the application of system theory to the organisational context: Actors like change agents or management use governance media (Luhmann, 1997; Fischer, 2009) to intervene in the individual decisions. The effect of these governance media varies with certain attributes of the organisation. Different coordination mechanisms of organisational configurations (Mintzberg, 1979) provide a link to governance media and their connectivity to individual decision processes. In order to demonstrate the feasibility of model a simulation experiment is conducted in AnyLogic. The validity of the model was tested in a sensitivity analysis. The results from the experiment show a specific acceptance and usage pattern. The acceptance is dropping at first due to the initial frustration. It then recovers and is growing in a bounded manner. Since usage is mandatory in an organisation, it is enforced by the management. This leads to a rapid increase of usage at first and stabilises on different levels during the course of the simulation. It was also found that different organisation configurations produce varying outcomes. The bureaucratic organisation enforces the usage better than any other configuration, leading to a higher usage level. However it fails to produce acceptance. The adhocracy on the other hand reaches a higher acceptance level through mutual adjustment. Its downside is the lack of usage. Furthermore the behaviour is not predictable, which can either lead to mostly positive outcomes or the complete break-down of the diffusion process. The simulation shows that organisations have to decide during the introduction of a new technology whether they want high usage rates fast with the risk of failing in the long term or establish a self-enforcing and sustainable diffusion processes which requires more time to be effective. N2 - Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar. Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden. Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012). Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure (Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten. Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen. Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft. In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf. KW - Technologieakzeptanz KW - Organisationsforschung KW - soziale Simulation KW - technology acceptance KW - organisation science KW - social simulation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401070 ER - TY - THES A1 - Titov, Evgenii T1 - Quantum chemistry and surface hopping dynamics of azobenzenes T1 - Quantenchemie und Surface Hopping Dynamik von Azobenzolen BT - free and constrained models BT - freie und eingeschränkte Modelle N2 - This cumulative doctoral dissertation, based on three publications, is devoted to the investigation of several aspects of azobenzene molecular switches, with the aid of computational chemistry. In the first paper, the isomerization rates of a thermal cis → trans isomerization of azobenzenes for species formed upon an integer electron transfer, i.e., with added or removed electron, are calculated from Eyring’s transition state theory and activation energy barriers, computed by means of density functional theory. The obtained results are discussed in connection with an experimental study of the thermal cis → trans isomerization of azobenzene derivatives in the presence of gold nanoparticles, which is demonstrated to be greatly accelerated in comparison to the same isomerization reaction in the absence of nanoparticles. The second paper is concerned with electronically excited states of (i) dimers, composed of two photoswitchable units placed closely side-by-side, as well as (ii) monomers and dimers adsorbed on a silicon cluster. A variety of quantum chemistry methods, capable of calculating molecular electronic absorption spectra, based on density functional and wave function theories, is employed to quantify changes in optical absorption upon dimerization and covalent grafting to a surface. Specifically, the exciton (Davydov) splitting between states of interest is determined from first-principles calculations with the help of natural transition orbital analysis, allowing for insight into the nature of excited states. In the third paper, nonadiabatic molecular dynamics with trajectory surface hopping is applied to model the photoisomerization of azobenzene dimers, (i) for the isolated case (exhibiting the exciton coupling between two molecules) as well as (ii) for the constrained case (providing the van der Waals interaction with environment in addition to the exciton coupling between two monomers). For the latter, the additional azobenzene molecules, surrounding the dimer, are introduced, mimicking a densely packed self-assembled monolayer. From obtained results it is concluded that the isolated dimer is capable of isomerization likewise the monomer, whereas the steric hindrance considerably suppresses trans → cis photoisomerization. Furthermore, the present dissertation comprises the general introduction describing the main features of the azobenzene photoswitch and objectives of this work, theoretical basis of the employed methods, and discussion of gained findings in the light of existing literature. Also, additional results on (i) activation parameters of the thermal cis → trans isomerization of azobenzenes, (ii) an approximate scheme to account for anharmonicity of molecular vibrations in calculation of the activation entropy, as well as (iii) absorption spectra of photoswitch–silicon composites obtained from time-demanding wave function-based methods are presented. N2 - Die vorliegende kumulative Dissertationsschrift basiert auf drei wissenschaftlichen Publikationen und beschäftigt sich mit der computerchemischen Erforschung von molekularen Azobenzol-Schaltern. Die erste Publikation behandelt die thermische cis → trans Isomerisierung von Azobenzol durch einen Elektronentransfer (ein Elektron wird hinzugefügt oder entnommen). Dabei ist die Berechnung der Isomerisierungsrate des Elektronenübergangs nach der Eyringschen Theorie des Übergangszustands unter Einsatz von Aktivierungsenenergien durchgeführt worden. Die Letzteren sind mittels Dichtefunktionaltheorie berechnet worden. Die daraus erhaltenen Ergebnisse sind in Zusammenhang mit experimentellen Untersuchungen der thermische cis → trans Isomerisierung von Azobenzol-Derivaten in Lösung mit und ohne Goldnanopartikeln diskutiert worden. Die thermische Isomerisierung in Anwesenheit der Goldnanopartikeln läuft stark beschleunigt ab. Die zweite Publikation beschäftigt sich mit elektronisch angeregten Zuständen von (i) Dimeren bestehend aus zwei schaltbaren Einheiten, die dicht nebeneinander platziert sind, sowie (ii) Monomeren und Dimeren, die an einen Siliziumcluster adsorbiert sind. Mehrere quantenchemische Methoden basierend auf Dichtefunktionaltheorie und Wellenfunktionstheorie sind zur Berechnung der molekularen elektronischen Absorptionsspektren verwendet worden. Dadurch sind die Änderungen in der optischen Absorption sowohl bei der Dimerisierung, als auch beim kovalenten Anbinden an die Oberfläche bestimmt worden. Dazu ist die exzitonische Aufspaltung (Davydov splitting) zwischen den angeregten Zuständen aus ersten Prinzipien unter Verwendung von speziellen Orbitalen für Übergangszustände (natural transition orbitals) berechnet worden. Dadurch wird ein Einblick in die Natur der angeregten Zuständen erreicht. In der dritten Publikation ist eine nicht-adiabatische Molekulardynamik-Simulation unter Anwendung von trajectory surface hopping durchgeführt worden, um die Photoisomerisirung von Azobenzol-Dimeren zu modellieren. Dabei sind (i) ein isoliertes sowie (ii) ein Dimer in der Monolage betrachtet worden. Es sind die exzitonische Kopplung zwischen den zwei Molekülen, sowie, im Falle der Monolage, auch Van-der-Waals-Wechselwirkungen berücksicht worden. Die Ergebnisse weisen darauf hin, dass ein isoliertes Dimer gleichermaßen isomerisierungsfähig wie ein Monomer ist, wobei die cis → trans Photoisomerisierung durch die sterische Hinderung erheblich unterdrückt wird. Außerdem beinhaltet die darliegende Dissertationsschrift eine allgemeine Einführung, theoretische Grundlagen der verwendeten Methoden und die Diskussion der erhaltenen Ergebnisse mit Blick auf die vorhandene Literatur. Ferner sind zusätzliche Ergebnisse bezüglich der folgenden Aspekte dargestellt: (i) Aktivierungsparameter der thermischen cis → trans Isomerisierung von Azobenzol; (ii) ein Näherungsverfahren zur Berücksichtigung der Anharmonizität von Molekülschwingungen bei Berechnung der Aktivierungsentropie; (iii) Absorptionspektren von Photoschalter-Silizium-Kompositen berechnet mithilfe von zeitaufwändigen Wellenfunktions-basierten Methoden. KW - quantum chemistry KW - surface hopping dynamics KW - azobenzene KW - Quantenchemie KW - Surface Hopping Dynamik KW - Azobenzol Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394610 ER -