Refine
Has Fulltext
- yes (2496) (remove)
Year of publication
Document Type
- Doctoral Thesis (2496) (remove)
Language
Keywords
- climate change (52)
- Klimawandel (50)
- Modellierung (34)
- Nanopartikel (28)
- Fernerkundung (20)
- machine learning (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (402)
- Institut für Biochemie und Biologie (378)
- Institut für Geowissenschaften (324)
- Institut für Chemie (300)
- Extern (146)
- Institut für Umweltwissenschaften und Geographie (121)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (96)
- Department Psychologie (87)
- Hasso-Plattner-Institut für Digital Engineering GmbH (85)
En route towards advanced catalyst materials for the electrocatalytic water splitting reaction
(2016)
The thesis on hand deals with the development of new types of catalysts based on pristine metals and ceramic materials and their application as catalysts for the electrocatalytic water splitting reaction. In order to breathe life into this technology, cost-efficient, stable and efficient catalysts are imploringly desired. In this manner, the preparation of Mn-, N-, S-, P-, and C-containing nickel materials has been investigated together with the theoretical and electrochemical elucidation of their activity towards the hydrogen (and oxygen) evolution reaction. The Sabatier principle has been used as the principal guideline towards successful tuning of catalytic sites. Furthermore, two pathways have been chosen to ameliorate the electrocatalytic performance, namely, the direct improvement of intrinsic properties through appropriate material selection and secondly the increase of surface area of the catalytic material with an increased amount of active sites. In this manner, bringing materials with optimized hydrogen adsorption free energy onto high surface area support, catalytic performances approaching the golden standards of noble metals were feasible. Despite varying applied synthesis strategies (wet chemistry in organic solvents, ionothermal reaction, gas phase reaction), one goal has been systematically pursued: to understand the driving mechanism of the growth. Moreover, deeper understanding of inherent properties and kinetic parameters of the catalytic materials has been gained.
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
This research focuses on empowering leadership, a leadership style that shares autonomy and responsibilities with the followers. Empowering leadership enhances the meaningfulness of work by fostering participation in decision-making, expressing confidence in high performance, and providing autonomy in target setting (Cheong, 2016). I examine how empowering leadership affects followers’ reflection. I used data from 528 individuals across 172 teams and found a positive relationship between empowering leadership and followers’ reflection. Followers’ reflection, in turn, is negatively associated with followers’ withdrawal, which mediates the beneficial effect of empowering leadership on leaders’ emotional exhaustion. As for the leaders, I propose that empowering leadership is negatively related also to leaders’ emotional exhaustion. This research broadens our understanding of empowering leadership's effects on both followers and leaders. Moreover, it integrates empowering leadership, leader emotional exhaustion, and burnout literature. Overall, empowering leadership strengthens members’ reflective attitudes and behaviors, which result in reduced withdrawal (and increased presence and contribution) in teams. Because the members contribute to team effort more, the leaders experience less emotional exhaustion. Hence, my work not only identifies new ways through which empowering leadership positively affects followers but also shows how these positive effects on followers benefit the leaders’ well-being.
Die Gesundheitswirtschaft in Deutschland steht vor zahlreichen Veränderungen in ihrem Umfeld. Dabei mangelt es der Krankenhauslandschaft an ärztlichem Personal. Es fehlt insbesondere an Arztstunden bei zugleich steigendem Bedarf an medizinischen Leistungen. Der demografische Wandel, Abwanderung ins Ausland (z. B. in die Schweiz) und Extrapolationen wie Feminisierung des Arztberufs und der Wertewandel respektive Generationenforschung begünstigen diese
Entwicklung. Zudem wird der Arbeitsplatz Krankenhaus zunehmend als unattraktiv von zukünftigen Arbeitnehmerkohorten angesehen. Nachwuchsärzte entscheiden sich bereits im Studium vermehrt gegen die kurative Medizin beziehungsweise gegen eine medizinisch-klinische Tätigkeit. Ein virulentes Beschaffungsproblem zeichnet sich ab, das es zu lösen gilt.
Das Forschungsziel ist die Entwicklung eines ganzheitlichen strategischen Lösungsansatzes mit marktorientierter Akzentuierung für den Arbeitgeber Krankenhaus. Dabei wird das Krankenhaus als wissens- und kompetenzintensive Dienstleistungsorganisation definiert. Employer Branding stellt den Bezugsrahmen eines marktorientierten Personalmanagements dar. Ein forschungstheoretischer Unterbau wird durch strategische Managementansätze integriert. Employer Branding schlägt die Brücke vom Market-based View zum Competence-based View und ist Markenmanagement im Kontext des strategischen Personalmanagements. In der vorliegenden Arbeit wird ein holistischer Bezugsrahmen vorgestellt, der die Wirkungszusammenhänge respektive Employer Branding darstellt. Das Herzstück ist die Employer Value Proposition, die auf der Markenidentität der Organisation basiert. Ziel des Employer Branding Ansatzes ist es, unter anderem eine präferenzerzeugende Wirkung im Prozess der Arbeitsplatzwahl sicherzustellen.
Die Zielrichtung und die Erkenntnis-Interessen erfordern einen breit angelegten Forschungsansatz, der qualitative und quantitative Methoden kombiniert. Ziel der leitfadengesteuerten Tiefeninterviews (exploratives Studiendesign) ist es, bestehende und noch zu entwickelnde Kompetenzstärken der Krankenhausorganisationen zu identifizieren. Bei der Stichprobe handelt es sich um ein „Typical Case Sampling“ (N=12). Defizitäre Befunde, welche Werte und Attraktivitätsfaktoren bei angehenden Ärzten ausgeprägt sind, werden bestätigt. In der Krankenhauslandschaft wird eine fragmentarische und reaktive Herangehensweise identifiziert, die die erfolgreiche Rekrutierung von qualifiziertem Krankenhauspersonal erschwert.
Durch die qualitative Marktforschung werden Anforderungen des Marktes – also zukünftiges, ärztliches Krankenhauspersonal – auf faktorenanalytischer Basis analysiert. Die Stichprobe (N=475) ist isomorph. Dabei wird der Prozess der Einstellungsbildung in das neobehavioristische Erklärungsmodell des Käuferverhaltens eingeordnet. Die Vereinbarkeit von Beruf, Karriere und Familie sowie die betriebliche Kinderbetreuung werden als Schlüsselkomponenten erkannt.
Wichtigste Arbeitswerte in Bezug auf einen attraktiven Arbeitgeber sind Verlässlichkeit, Verantwortung und Respekt. Diese Komponenten haben kommunikativen Nutzen und Differenzierungskraft. Schließlich bewerten Bewerber ein Krankenhaus positiver im Prozess der Arbeitsplatzwahl, je mehr die Werte des potentiellen Arbeitnehmers mit dem Werteprofil der Person übereinstimmen (Person-Organisation Fit).
Krankenhausorganisationen, die den Employer Branding Ansatz implementieren und als Chance zur Definition ihrer Stärken, ihrer Vorzüge und ihres Leistungsangebots als Arbeitgeber annehmen, rüsten sich für das verstärkte Werben um Jungmediziner. Schließlich setzt Employer Branding als marktorientierter Strategieansatz intern und extern Kräfte frei, die Differenzierungsvorteile gegenüber anderen Arbeitgebern bringen. Dabei hat Employer Branding positive Auswirkungen auf den Human Ressource-Bereich entlang der Wertschöpfungskette und mindert das gesamtwirtschaftliche Problem.
In Chapter 1 of the dissertation, the role of social networks is analyzed as an important determinant in the search behavior of the unemployed. Based on the hypothesis that the unemployed generate information on vacancies through their social network, search theory predicts that individuals with large social networks should experience an increased productivity of informal search, and reduce their search in formal channels. Due to the higher productivity of search, unemployed with a larger network are also expected to have a higher reservation wage than unemployed with a small network. The model-theoretic predictions are tested and confirmed empirically. It is found that the search behavior of unemployed is significantly affected by the presence of social contacts, with larger networks implying a stronger substitution away from formal search channels towards informal channels. The substitution is particularly pronounced for passive formal search methods, i.e., search methods that generate rather non-specific types of job offer information at low relative cost. We also find small but significant positive effects of an increase of the network size on the reservation wage. These results have important implications on the analysis of the job search monitoring or counseling measures that are usually targeted at formal search only. Chapter 2 of the dissertation addresses the labor market effects of vacancy information during the early stages of unemployment. The outcomes considered are the speed of exit from unemployment, the effects on the quality of employment and the short-and medium-term effects on active labor market program (ALMP) participation. It is found that vacancy information significantly increases the speed of entry into employment; at the same time the probability to participate in ALMP is significantly reduced. Whereas the long-term reduction in the ALMP arises in consequence of the earlier exit from unemployment, we also observe a short-run decrease for some labor market groups which suggest that caseworker use high and low intensity activation measures interchangeably which is clearly questionable from an efficiency point of view. For unemployed who find a job through vacancy information we observe a small negative effect on the weekly number of hours worked. In Chapter 3, the long-term effects of participation in ALMP are assessed for unemployed youth under 25 years of age. Complementary to the analysis in Chapter 2, the effects of participation in time- and cost-intensive measures of active labor market policies are examined. In particular we study the effects of job creation schemes, wage subsidies, short-and long-term training measures and measures to promote the participation in vocational training. The outcome variables of interest are the probability to be in regular employment, and participation in further education during the 60 months following program entry. The analysis shows that all programs, except job creation schemes have positive and long-term effects on the employment probability of youth. In the short-run only short-term training measures generate positive effects, as long-term training programs and wage subsidies exhibit significant locking-in'' effects. Measures to promote vocational training are found to increase the probability of attending education and training significantly, whereas all other programs have either no or a negative effect on training participation. Effect heterogeneity with respect to the pre-treatment level education shows that young people with higher pre-treatment educational levels benefit more from participation most programs. However, for longer-term wage subsidies we also find strong positive effects for young people with low initial education levels. The relative benefit of training measures is higher in West than in East Germany. In the evaluation studies of Chapters 2 and 3 semi-parametric balancing methods of Propensity Score Matching (PSM) and Inverse Probability Weighting (IPW) are used to eliminate the effects of counfounding factors that influence both the treatment participation as well as the outcome variable of interest, and to establish a causal relation between program participation and outcome differences. While PSM and IPW are intuitive and methodologically attractive as they do not require parametric assumptions, the practical implementation may become quite challenging due to their sensitivity to various data features. Given the importance of these methods in the evaluation literature, and the vast number of recent methodological contributions in this field, Chapter 4 aims to reduce the knowledge gap between the methodological and applied literature by summarizing new findings of the empirical and statistical literature and practical guidelines for future applied research. In contrast to previous publications this study does not only focus on the estimation of causal effects, but stresses that the balancing challenge can and should be discussed independent of question of causal identification of treatment effects on most empirical applications. Following a brief outline of the practical implementation steps required for PSM and IPW, these steps are presented in detail chronologically, outlining practical advice for each step. Subsequently, the topics of effect estimation, inference, sensitivity analysis and the combination with parametric estimation methods are discussed. Finally, new extensions of the methodology and avenues for future research are presented.
Music is a powerful and reliable means to stimulate the percept of both intense pleasantness and unpleasantness in the perceiver. However, everyone’s social experiences with music suggest that the same music piece may elicit a very different valence percept in different individuals. A comparison of music from different historical periods suggests that enculturation modulates the valence percept of intervals and harmonies, and thus possibly also of relatively basic feature extraction processes. Strikingly, it is still largely unknown how much the valence percept is dependent on physical properties of the stimulus and thus mediated by a universal perceptual mechanism, and how much it is dependent on cultural imprinting. The current thesis investigates the neurophysiology of the valence percept, and the modulating influence of culture on several distinguishable sub-processes of music processing, so-called functional modules of music processing, engaged in the mediation of the valence percept.
Salty taste has evolved to maintain electrolyte homeostasis, serving as a detector for salt containing food. In rodents, salty taste involves at least two transduction mechanisms. One is sensitive to the drug amiloride and specific for Na+, involving epithelial sodium channel (ENaC). A second rodent transduction pathway, which is triggered by various cations, is amiloride insensitive and not almost understood to date. Studies in primates showed amiloride-sensitive as well as amiloride-insensitive gustatory responses to NaCl, implying a role of both salt taste transduction pathways in humans. However, sensory studies in humans point to largely amiloride-insensitive sodium taste perception. An involvement of ENaC in human sodium taste perception was not shown, so far. In this study, ENaC subunit protein and mRNA could be localized to human taste bud cells (TBC). Thus, basolateral αβγ-ENaC ion channels are likely in TBC of circumvallate papillae, possibly mediating basolateral sodium entry. Similarly, basolateral βγ-ENaC might play a role in fungiform TBC. Strikingly, δ-ENaC subunit was confined to taste bud pores of both papillae, likely mediating gustatory sodium entry in TBC, either apical or paracellular via tight junctions. However, regional separation of δ-ENaC and βγ-ENaC in fungiform and circumvallate TBC indicate the presence of unknown interaction partner necessary to assemble into functional ion channels. However, screening of a macaque taste tissue cDNA library did neither reveal polypeptides assembling into a functional cation channel by interaction with δ-ENaC or βγ-ENaC nor ENaC independent salt taste receptor candidates. Thus, ENaC subunits are likely involved in human taste transduction, while exact composition and identity of an amiloride (in)sensitive salt taste receptors remain unclear. Localization of δ-ENaC in human taste pores strongly suggests a role in human taste transduction. In contrast, δ-ENaC is classified as pseudogene Scnn1d in mouse. However, no experimental detected sequences are annotated, while evidences for parts of Scnn1d derived mRNAs exist. In order to elucidate if Scnn1d is possibly involved in rodent salt taste perception, Scnn1d was evaluated in this study to clarify if Scnn1d is a gene or a transcribed pseudogene in mice. Comparative mapping of human SCNN1D to mouse chromosome 4 revealed complete Scnn1d sequence as well as its pseudogenization by Mus specific endogenous retroviruses. Moreover, tissue specific transcription of unitary Scnn1d pseudogene was found in mouse vallate papillae, kidney and testis and led to identification of nine Scnn1d transcripts. In vitro translation experiments showed that Scnn1d transcripts are coding competent for short polypeptides, possibly present in vivo. However, no sodium channel like function or sodium channel modulating activity was evident for Scnn1d transcripts and/or derived polypeptides. Thus, an involvement of mouse δ-ENaC in sodium taste transduction is unlikely and points to species specific differences in salt taste transduction mechanisms.
Elucidating the molecular basis of enhanced growth in the Arabidopsis thaliana accession Bur-0
(2021)
The life cycle of flowering plants is a dynamic process that involves successful passing through several developmental phases and tremendous progress has been made to reveal cellular and molecular regulatory mechanisms underlying these phases, morphogenesis, and growth. Although several key regulators of plant growth or developmental phase transitions have been identified in Arabidopsis, little is known about factors that become active during embryogenesis, seed development and also during further postembryonic growth. Much less is known about accession-specific factors that determine plant architecture and organ size. Bur-0 has been reported as a natural Arabidopsis thaliana accession with exceptionally big seeds and a large rosette; its phenotype makes it an interesting candidate to study growth and developmental aspects in plants, however, the molecular basis underlying this big phenotype remains to be elucidated. Thus, the general aim of this PhD project was to investigate and unravel the molecular mechanisms underlying the big phenotype in Bur-0.
Several natural Arabidopsis accessions and late flowering mutant lines were analysed in this study, including Bur-0. Phenotypes were characterized by determining rosette size, seed size, flowering time, SAM size and growth in different photoperiods, during embryonic and postembryonic development. Our results demonstrate that Bur-0 stands out as an interesting accession with simultaneously larger rosettes, larger SAM, later flowering phenotype and larger seeds, but also larger embryos. Interestingly, inter-accession crosses (F1) resulted in bigger seeds than the parental self-crossed accessions, particularly when Bur-0 was used as the female parental genotype, suggesting parental effects on seed size that might be maternally controlled. Furthermore, developmental stage-based comparisons revealed that the large embryo size of Bur-0 is achieved during late embryogenesis and the large rosette size is achieved during late postembryonic growth. Interestingly, developmental phase progression analyses revealed that from germination onwards, the length of developmental phases during postembryonic growth is delayed in Bur-0, suggesting that in general, the mechanisms that regulate developmental phase progression are shared across developmental phases.
On the other hand, a detailed physiological characterization in different tissues at different developmental stages revealed accession-specific physiological and metabolic traits that underlie accession-specific phenotypes and in particular, more carbon resources during embryonic and postembryonic development were found in Bur-0, suggesting an important role of carbohydrates in determination of the bigger Bur-0 phenotype. Additionally, differences in the cellular organization, nuclei DNA content, as well as ploidy level were analyzed in different tissues/cell types and we found that the large organ size in Bur-0 can be mainly attributed to its larger cells and also to higher cell proliferation in the SAM, but not to a different ploidy level.
Furthermore, RNA-seq analysis of embryos at torpedo and mature stage, as well as SAMs at vegetative and floral transition stage from Bur-0 and Col-0 was conducted to identify accession-specific genetic determinants of plant phenotypes, shared across tissues and developmental stages during embryonic and postembryonic growth. Potential candidate genes were identified and further validation of transcriptome data by expression analyses of candidate genes as well as known key regulators of organ size and growth during embryonic and postembryonic development confirmed that the high confidence transcriptome datasets generated in this study are reliable for elucidation of molecular mechanisms regulating plant growth and accession-specific phenotypes in Arabidopsis.
Taken together, this PhD project contributes to the plant development research field providing a detailed analysis of mechanisms underlying plant growth and development at different levels of biological organization, focusing on Arabidopsis accessions with remarkable phenotypical differences. For this, the natural accession Bur-0 was an ideal outlier candidate and different mechanisms at organ and tissue level, cell level, metabolism, transcript and gene expression level were identified, providing a better understanding of different factors involved in plant growth regulation and mechanisms underlying different growth patterns in nature.
In this thesis we consider diverse aspects of existence and correctness of asymptotic solutions to elliptic differential and pseudodifferential equations. We begin our studies with the case of a general elliptic boundary value problem in partial derivatives. A small parameter enters the coefficients of the main equation as well as into the boundary conditions. Such equations have already been investigated satisfactory, but there still exist certain theoretical deficiencies. Our aim is to present the general theory of elliptic problems with a small parameter. For this purpose we examine in detail the case of a bounded domain with a smooth boundary. First of all, we construct formal solutions as power series in the small parameter. Then we examine their asymptotic properties. It suffices to carry out sharp two-sided \emph{a priori} estimates for the operators of boundary value problems which are uniform in the small parameter. Such estimates failed to hold in functional spaces used in classical elliptic theory. To circumvent this limitation we exploit norms depending on the small parameter for the functions defined on a bounded domain. Similar norms are widely used in literature, but their properties have not been investigated extensively. Our theoretical investigation shows that the usual elliptic technique can be correctly carried out in these norms. The obtained results also allow one to extend the norms to compact manifolds with boundaries. We complete our investigation by formulating algebraic conditions on the operators and showing their equivalence to the existence of a priori estimates. In the second step, we extend the concept of ellipticity with a small parameter to more general classes of operators. Firstly, we want to compare the difference in asymptotic patterns between the obtained series and expansions for similar differential problems. Therefore we investigate the heat equation in a bounded domain with a small parameter near the time derivative. In this case the characteristics touch the boundary at a finite number of points. It is known that the solutions are not regular in a neighbourhood of such points in advance. We suppose moreover that the boundary at such points can be non-smooth but have cuspidal singularities. We find a formal asymptotic expansion and show that when a set of parameters comes through a threshold value, the expansions fail to be asymptotic. The last part of the work is devoted to general concept of ellipticity with a small parameter. Several theoretical extensions to pseudodifferential operators have already been suggested in previous studies. As a new contribution we involve the analysis on manifolds with edge singularities which allows us to consider wider classes of perturbed elliptic operators. We examine that introduced classes possess a priori estimates of elliptic type. As a further application we demonstrate how developed tools can be used to reduce singularly perturbed problems to regular ones.
Ellipsometrische Lichtstreuung als neue Methode zur Charakterisierung der Grenzfläche von Kolloiden
(2004)
Die ellipsometrische Lichtstreuung wird als eine neue, leistungsfähige Methode zur Charakterisierung von Schichten um kolloidale Partikel vorgestellt. Theoretische Grundlage der Methode ist die Mie-Theorie der Lichtstreuung. Experimentell wurde die Polarisationsoptik eines Null-Ellipsometers in den Strahlengang eines Lichtstreuaufbaus eingebaut. Wie in der Reflexionsellipsometrie um den Brewsterwinkel herum erhält man in der ellipsometrischen Streuung einen Winkelbereich, in dem die Methode empfindlich auf Schichten an der Oberfläche der Partikel ist. An verschiedenen Systemen wurde die Tauglichkeit der ellipsometrischen Streuung zur Charakterisierung von Schichten auf Partikeln demonstriert. So wurden Dicke und Brechungsindex einer thermosensitiven Schicht von Poly(N-isopropylacrylamid) auf einem Poly(methylmethacrylat)-Kern bestimmt. Damit ist es möglich, experimentell den Schichtbrechungsindex und damit den Quellungsgrad zu bestimmen. Des Weiteren wurde der Einfluss der NaCl-Konzentration auf die Polyelektrolythülle von Poly(methylmethacrylat)-Poly(styrolsulfonat)-Blockcopolymer-Partikeln untersucht. Die Polyelektrolytketten liegen im hier untersuchten Beispiel nicht gestreckt vor. Als drittes wurde die Verteilung von niedermolekularen Ionen um elektrostatisch stabilisierte Poly(styrol)-Latexpartikel in Wasser untersucht. Hier wurde gezeigt, dass die beobachteten Schichtdicken und Schichtbrechungsindizes viel größer sind, als nach der klassischen Poisson-Boltzmann-Theorie zu erwarten ist. Des Weiteren wurde die Doppelbrechung von unilamellaren Lipidvesikeln bestimmt. Außerdem wurden Messungen der dynamische Lichtstreuung im Intensitätsminimum der Ellipsometrie durchgeführt. Dabei wird ein Prozess mit einer Korrelationszeit, die unabhängig vom Streuvektor, aber abhängig von der verwendeten Wellenlänge ist, sichtbar. Die Natur dieses Prozesses konnte hier nicht vollständig geklärt werden.
Donor-acceptor (D-A) copolymers have revolutionized the field of organic electronics over the last decade. Comprised of a electron rich and an electron deficient molecular unit, these copolymers facilitate the systematic modification of the material's optoelectronic properties. The ability to tune the optical band gap and to optimize the molecular frontier orbitals as well as the manifold of structural sites that enable chemical modifications has created a tremendous variety of copolymer structures. Today, these materials reach or even exceed the performance of amorphous inorganic semiconductors. Most impressively, the charge carrier mobility of D-A copolymers has been pushed to the technologically important value of 10 cm^{2}V^{-1}s^{-1}. Furthermore, owed to their enormous variability they are the material of choice for the donor component in organic solar cells, which have recently surpassed the efficiency threshold of 10%. Because of the great number of available D-A copolymers and due to their fast chemical evolution, there is a significant lack of understanding of the fundamental physical properties of these materials. Furthermore, the complex chemical and electronic structure of D-A copolymers in combination with their semi-crystalline morphology impede a straightforward identification of the microscopic origin of their superior performance. In this thesis, two aspects of prototype D-A copolymers were analysed. These are the investigation of electron transport in several copolymers and the application of low band gap copolymers as acceptor component in organic solar cells. In the first part, the investigation of a series of chemically modified fluorene-based copolymers is presented. The charge carrier mobility varies strongly between the different derivatives, although only moderate structural changes on the copolymers structure were made. Furthermore, rather unusual photocurrent transients were observed for one of the copolymers. Numerical simulations of the experimental results reveal that this behavior arises from a severe trapping of electrons in an exponential distribution of trap states. Based on the comparison of simulation and experiment, the general impact of charge carrier trapping on the shape of photo-CELIV and time-of-flight transients is discussed. In addition, the high performance naphthalenediimide (NDI)-based copolymer P(NDI2OD-T2) was characterized. It is shown that the copolymer posses one of the highest electron mobilities reported so far, which makes it attractive to be used as the electron accepting component in organic photovoltaic cells.\par Solar cells were prepared from two NDI-containing copolymers, blended with the hole transporting polymer P3HT. I demonstrate that the use of appropriate, high boiling point solvents can significantly increase the power conversion efficiency of these devices. Spectroscopic studies reveal that the pre-aggregation of the copolymers is suppressed in these solvents, which has a strong impact on the blend morphology. Finally, a systematic study of P3HT:P(NDI2OD-T2) blends is presented, which quantifies the processes that limit the efficiency of devices. The major loss channel for excited states was determined by transient and steady state spectroscopic investigations: the majority of initially generated electron-hole pairs is annihilated by an ultrafast geminate recombination process. Furthermore, exciton self-trapping in P(NDI2OD-T2) domains account for an additional reduction of the efficiency. The correlation of the photocurrent to microscopic morphology parameters was used to disclose the factors that limit the charge generation efficiency. Our results suggest that the orientation of the donor and acceptor crystallites relative to each other represents the main factor that determines the free charge carrier yield in this material system. This provides an explanation for the overall low efficiencies that are generally observed in all-polymer solar cells.
The microscopic origin of ultrafast demagnetization, i.e. the quenching of the magnetization of a ferromagnetic metal on a sub-picosecond timescale after laser excitation, is still only incompletely understood, despite a large body of experimental and theoretical work performed since the discovery of the effect more than 15 years ago. Time- and element-resolved x-ray magnetic circular dichroism measurements can provide insight into the microscopic processes behind ultrafast demagnetization as well as its dependence on materials properties. Using the BESSY II Femtoslicing facility, a storage ring based source of 100 fs short soft x-ray pulses, ultrafast magnetization dynamics of ferromagnetic NiFe and GdTb alloys as well as a Au/Ni layered structure were investigated in laser pump – x-ray probe experiments. After laser excitation, the constituents of Ni50Fe50 and Ni80Fe20 exhibit distinctly different time constants of demagnetization, leading to decoupled dynamics, despite the strong exchange interaction that couples the Ni and Fe sublattices under equilibrium conditions. Furthermore, the time constants of demagnetization for Ni and Fe are different in Ni50Fe50 and Ni80Fe20, and also different from the values for the respective pure elements. These variations are explained by taking the magnetic moments of the Ni and Fe sublattices, which are changed from the pure element values due to alloying, as well as the strength of the intersublattice exchange interaction into account. GdTb exhibits demagnetization in two steps, typical for rare earths. The time constant of the second, slower magnetization decay was previously linked to the strength of spin-lattice coupling in pure Gd and Tb, with the stronger, direct spin-lattice coupling in Tb leading to a faster demagnetization. In GdTb, the demagnetization of Gd follows Tb on all timescales. This is due to the opening of an additional channel for the dissipation of spin angular momentum to the lattice, since Gd magnetic moments in the alloy are coupled via indirect exchange interaction to neighboring Tb magnetic moments, which are in turn strongly coupled to the lattice. Time-resolved measurements of the ultrafast demagnetization of a Ni layer buried under a Au cap layer, thick enough to absorb nearly all of the incident pump laser light, showed a somewhat slower but still sub-picosecond demagnetization of the buried Ni layer in Au/Ni compared to a Ni reference sample. Supported by simulations, I conclude that demagnetization can thus be induced by transport of hot electrons excited in the Au layer into the Ni layer, without the need for direct interaction between photons and spins.
Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt.
In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt.
Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt.
The Sun is a star, which due to its proximity has a tremendous influence on Earth. Since its very first days mankind tried to "understand the Sun", and especially in the 20th century science has uncovered many of the Sun's secrets by using high resolution observations and describing the Sun by means of models. As an active star the Sun's activity, as expressed in its magnetic cycle, is closely related to the sunspot numbers. Flares play a special role, because they release large energies on very short time scales. They are correlated with enhanced electromagnetic emissions all over the spectrum. Furthermore, flares are sources of energetic particles. Hard X-ray observations (e.g., by NASA's RHESSI spacecraft) reveal that a large fraction of the energy released during a flare is transferred into the kinetic energy of electrons. However the mechanism that accelerates a large number of electrons to high energies (beyond 20 keV) within fractions of a second is not understood yet. The thesis at hand presents a model for the generation of energetic electrons during flares that explains the electron acceleration based on real parameters obtained by real ground and space based observations. According to this model photospheric plasma flows build up electric potentials in the active regions in the photosphere. Usually these electric potentials are associated with electric currents closed within the photosphere. However as a result of magnetic reconnection, a magnetic connection between the regions of different magnetic polarity on the photosphere can establish through the corona. Due to the significantly higher electric conductivity in the corona, the photospheric electric power supply can be closed via the corona. Subsequently a high electric current is formed, which leads to the generation of hard X-ray radiation in the dense chromosphere. The previously described idea is modelled and investigated by means of electric circuits. For this the microscopic plasma parameters, the magnetic field geometry and hard X-ray observations are used to obtain parameters for modelling macroscopic electric components, such as electric resistors, which are connected with each other. This model demonstrates that such a coronal electric current is correlated with large scale electric fields, which can accelerate the electrons quickly up to relativistic energies. The results of these calculations are encouraging. The electron fluxes predicted by the model are in agreement with the electron fluxes deduced from the measured photon fluxes. Additionally the model developed in this thesis proposes a new way to understand the observed double footpoint hard X-ray sources.
Our dynamic Sun manifests its activity by different phenomena: from the 11-year cyclic sunspot pattern to the unpredictable and violent explosions in the case of solar flares. During flares, a huge amount of the stored magnetic energy is suddenly released and a substantial part of this energy is carried by the energetic electrons, considered to be the source of the nonthermal radio and X-ray radiation. One of the most important and still open question in solar physics is how the electrons are accelerated up to high energies within (the observed in the radio emission) short time scales. Because the acceleration site is extremely small in spatial extent as well (compared to the solar radius), the electron acceleration is regarded as a local process. The search for localized wave structures in the solar corona that are able to accelerate electrons together with the theoretical and numerical description of the conditions and requirements for this process, is the aim of the dissertation. Two models of electron acceleration in the solar corona are proposed in the dissertation: I. Electron acceleration due to the solar jet interaction with the background coronal plasma (the jet--plasma interaction) A jet is formed when the newly reconnected and highly curved magnetic field lines are relaxed by shooting plasma away from the reconnection site. Such jets, as observed in soft X-rays with the Yohkoh satellite, are spatially and temporally associated with beams of nonthermal electrons (in terms of the so-called type III metric radio bursts) propagating through the corona. A model that attempts to give an explanation for such observational facts is developed here. Initially, the interaction of such jets with the background plasma leads to an (ion-acoustic) instability associated with growing of electrostatic fluctuations in time for certain range of the jet initial velocity. During this process, any test electron that happen to feel this electrostatic wave field is drawn to co-move with the wave, gaining energy from it. When the jet speed has a value greater or lower than the one, required by the instability range, such wave excitation cannot be sustained and the process of electron energization (acceleration and/or heating) ceases. Hence, the electrons can propagate further in the corona and be detected as type III radio burst, for example. II. Electron acceleration due to attached whistler waves in the upstream region of coronal shocks (the electron--whistler--shock interaction) Coronal shocks are also able to accelerate electrons, as observed by the so-called type II metric radio bursts (the radio signature of a shock wave in the corona). From in-situ observations in space, e.g., at shocks related to co-rotating interaction regions, it is known that nonthermal electrons are produced preferably at shocks with attached whistler wave packets in their upstream regions. Motivated by these observations and assuming that the physical processes at shocks are the same in the corona as in the interplanetary medium, a new model of electron acceleration at coronal shocks is presented in the dissertation, where the electrons are accelerated by their interaction with such whistlers. The protons inflowing toward the shock are reflected there by nearly conserving their magnetic moment, so that they get a substantial velocity gain in the case of a quasi-perpendicular shock geometry, i.e, the angle between the shock normal and the upstream magnetic field is in the range 50--80 degrees. The so-accelerated protons are able to excite whistler waves in a certain frequency range in the upstream region. When these whistlers (comprising the localized wave structure in this case) are formed, only the incoming electrons are now able to interact resonantly with them. But only a part of these electrons fulfill the the electron--whistler wave resonance condition. Due to such resonant interaction (i.e., of these electrons with the whistlers), the electrons are accelerated in the electric and magnetic wave field within just several whistler periods. While gaining energy from the whistler wave field, the electrons reach the shock front and, subsequently, a major part of them are reflected back into the upstream region, since the shock accompanied with a jump of the magnetic field acts as a magnetic mirror. Co-moving with the whistlers now, the reflected electrons are out of resonance and hence can propagate undisturbed into the far upstream region, where they are detected in terms of type II metric radio bursts. In summary, the kinetic energy of protons is transfered into electrons by the action of localized wave structures in both cases, i.e., at jets outflowing from the magnetic reconnection site and at shock waves in the corona.
To achieve a sustainable energy economy, it is necessary to turn back on the combustion of fossil fuels as a means of energy production and switch to renewable sources. However, their temporal availability does not match societal consumption needs, meaning that renewably generated energy must be stored in its main generation times and allocated during peak consumption periods. Electrochemical energy storage (EES) in general is well suited due to its infrastructural independence and scalability. The lithium ion battery (LIB) takes a special place, among EES systems due to its energy density and efficiency, but the scarcity and uneven geological occurrence of minerals and ores vital for many cell components, and hence the high and fluctuating costs will decelerate its further distribution.
The sodium ion battery (SIB) is a promising successor to LIB technology, as the fundamental setup and cell chemistry is similar in the two systems. Yet, the most widespread negative electrode material in LIBs, graphite, cannot be used in SIBs, as it cannot store sufficient amounts of sodium at reasonable potentials. Hence, another carbon allotrope, non-graphitizing or hard carbon (HC) is used in SIBs. This material consists of turbostratically disordered, curved graphene layers, forming regions of graphitic stacking and zones of deviating layers, so-called internal or closed pores.
The structural features of HC have a substantial impact of the charge-potential curve exhibited by the carbon when it is used as the negative electrode in an SIB. At defects and edges an adsorption-like mechanism of sodium storage is prevalent, causing a sloping voltage curve, ill-suited for the practical application in SIBs, whereas a constant voltage plateau of relatively high capacities is found immediately after the sloping region, which recent research attributed to the deposition of quasimetallic sodium into the closed pores of HC.
Literature on the general mechanism of sodium storage in HCs and especially the role of the closed pore is abundant, but the influence of the pore geometry and chemical nature of the HC on the low-potential sodium deposition is yet in an early stage. Therefore, the scope of this thesis is to investigate these relationships using suitable synthetic and characterization methods. Materials of precisely known morphology, porosity, and chemical structure are prepared in clear distinction to commonly obtained ones and their impact on the sodium storage characteristics is observed. Electrochemical impedance spectroscopy in combination with distribution of relaxation times analysis is further established as a technique to study the sodium storage process, in addition to classical direct current techniques, and an equivalent circuit model is proposed to qualitatively describe the HC sodiation mechanism, based on the recorded data. The obtained knowledge is used to develop a method for the preparation of closed porous and non-porous materials from open porous ones, proving not only the necessity of closed pores for efficient sodium storage, but also providing a method for effective pore closure and hence the increase of the sodium storage capacity and efficiency of carbon materials.
The insights obtained and methods developed within this work hence not only contribute to the better understanding of the sodium storage mechanism in carbon materials of SIBs, but can also serve as guidance for the design of efficient electrode materials.
Electrets are dielectrics with quasi-permanent electric charge and/or dipoles, sometimes can be regarded as an electric analogy to a magnet. Since the discovery of the excellent charge retention capacity of poly(tetrafluoro ethylene) and the invention of the electret microphone, electrets have grown out of a scientific curiosity to an important application both in science and technology. The history of electret research goes hand in hand with the quest for new materials with better capacity at charge and/or dipole retention. To be useful, electrets normally have to be charged/poled to render them electro-active. This process involves electric-charge deposition and/or electric dipole orientation within the dielectrics ` surfaces and bulk. Knowledge of the spatial distribution of electric charge and/or dipole polarization after their deposition and subsequent decay is crucial in the task to improve their stability in the dielectrics.
Likewise, for dielectrics used in electrical insulation applications, there are also needs for accumulated space-charge and polarization spatial profiling. Traditionally, space-charge accumulation and large dipole polarization within insulating dielectrics is considered undesirable and harmful to the insulating dielectrics as they might cause dielectric loss and could lead to internal electric field distortion and local field enhancement. High local electric field could trigger several aging processes and reduce the insulating dielectrics' lifetime. However, with the advent of high-voltage DC transmission and high-voltage capacitor for energy storage, these are no longer the case. There are some overlapped between the two fields of electrets and electric insulation. While quasi-permanently trapped electric-charge and/or large remanent dipole polarization are the requisites for electret operation, stably trapped electric charge in electric insulation helps reduce electric charge transport and overall reduced electric conductivity. Controlled charge trapping can help in preventing further charge injection and accumulation as well as serving as field grading purpose in insulating dielectrics whereas large dipole polarization can be utilized in energy storage applications.
In this thesis, the Piezoelectrically-generated Pressure Steps (PPSs) were employed as a nondestructive method to probe the electric-charge and dipole polarization distribution in a range of thin film (several hundred micron) polymer-based materials, namely polypropylene (PP), low-density polyethylene/magnesium oxide (LDPE/MgO) nanocomposites and poly(vinylidene fluoride-co- trifluoro ethylene) (P(VDF-TrFE)) copolymer. PP film surface-treated with phosphoric acid to introduce surfacial isolated nanostructures serves as example of 2-dimensional nano-composites whereas LDPE/MgO serves as the case of 3-dimensional nano-composites with MgO nano-particles dispersed in LDPE polymer matrix. It is evidenced that the nanoparticles on the surface of acid-treated PP and in the bulk of LDPE/MgO nanocomposites improve charge trapping capacity of the respective material and prevent further charge injection and transport and that the enhanced charge trapping capacity makes PP and LDPE/MgO nanocomposites potential materials for both electret and electrical insulation applications. As for PVDF and VDF-based copolymers, the remanent spatial polarization distribution depends critically on poling method as well as specific parameters used in the respective poling method. In this work, homogeneous polarization poling of P(VDF-TrFE) copolymers with different VDF-contents have been attempted with hysteresis cyclical poling. The behaviour of remanent polarization growth and spatial polarization distribution are reported and discussed. The Piezoelectrically-generated Pressure Steps (PPSs) method has proven as a powerful method for the charge storage and transport characterization of a wide range of polymer material from nonpolar, to polar, to polymer nanocomposites category.
In this dissertation, an electric field-assisted method was developed and applied to achieve immobilization and alignment of biomolecules on metal electrodes in a simple one-step experiment. Neither modifications of the biomolecule nor of the electrodes were needed. The two major electrokinetic effects that lead to molecule motion in the chosen electrode configurations used were identified as dielectrophoresis and AC electroosmotic flow. To minimize AC electroosmotic flow, a new 3D electrode configuration was designed. Thus, the influence of experimental parameters on the dielectrophoretic force and the associated molecule movement could be studied. Permanent immobilization of proteins was examined and quantified absolutely using an atomic force microscope. By measuring the volumes of the immobilized protein deposits, a maximal number of proteins contained therein was calculated. This was possible since the proteins adhered to the tungsten electrodes even after switching off the electric field. The permanent immobilization of functional proteins on surfaces or electrodes is one crucial prerequisite for the fabrication of biosensors.
Furthermore, the biofunctionality of the proteins must be retained after immobilization. Due to the chemical or physical modifications on the proteins caused by immobilization, their biofunctionality is sometimes hampered. The activity of dielectrophoretically immobilized proteins, however, was proven here for an enzyme for the first time. The enzyme horseradish peroxidase was used exemplarily, and its activity was demonstrated with the oxidation of dihydrorhodamine 123, a non-fluorescent precursor of the fluorescence dye rhodamine 123.
Molecular alignment and immobilization - reversible and permanent - was achieved under the influence of inhomogeneous AC electric fields. For orientational investigations, a fluorescence microscope setup, a reliable experimental procedure and an evaluation protocol were developed and validated using self-made control samples of aligned acridine orange molecules in a liquid crystal.
Lambda-DNA strands were stretched and aligned temporarily between adjacent interdigitated electrodes, and the orientation of PicoGreen molecules, which intercalate into the DNA strands, was determined. Similarly, the aligned immobilization of enhanced Green Fluorescent Protein was demonstrated exploiting the protein's fluorescence and structural properties. For this protein, the angle of the chromophore with respect to the protein's geometrical axis was determined in good agreement with X-ray crystallographic data. Permanent immobilization with simultaneous alignment of the proteins was achieved along the edges, tips and on the surface of interdigitated electrodes. This was the first demonstration of aligned immobilization of proteins by electric fields.
Thus, the presented electric field-assisted immobilization method is promising with regard to enhanced antibody binding capacities and enzymatic activities, which is a requirement for industrial biosensor production, as well as for general interaction studies of proteins.
Near-Earth space represents a significant scientific and technological challenge. Particularly at magnetic low-latitudes, the horizontal magnetic field geometry at the dip equator and its closed field-lines support the existence of a distinct electric current system, abrupt electric field variations and the development of plasma irregularities. Of particular interest are small-scale irregularities associated with equatorial plasma depletions (EPDs). They are responsible for the disruption of trans-ionospheric radio waves used for navigation, communication, and Earth observation. The fast increase of satellite missions makes it imperative to study the near-Earth space, especially the phenomena known to harm space technology or disrupt their signals. EPDs correspond to the large-scale structure (i.e., tens to hundreds of kilometers) of topside F region irregularities commonly known as Spread F. They are observed as depleted-plasma density channels aligned with the ambient magnetic field in the post-sunset low-latitude ionosphere. Although the climatological variability of their occurrence in terms of season, longitude, local time and solar flux is well-known, their day to day variability is not. The sparse observations from ground-based instruments like radars and the few simultaneous measurements of ionospheric parameters by space-based instruments have left gaps in the knowledge of EPDs essential to comprehend their variability.
In this dissertation, I profited from the unique observations of the ESA’s Swarm constellation mission launched in November 2013 to tackle three issues that revealed novel and significant results on the current knowledge of EPDs. I used Swarm’s measurements of the electron density, magnetic, and electric fields to answer, (1.) what is the direction of propagation of the electromagnetic energy associated with EPDs?, (2.) what are the spatial and temporal characteristics of the electric currents (field-aligned and diamagnetic currents) related to EPDs, i.e., seasonal/geographical, and local time dependencies?, and (3.) under what conditions does the balance between magnetic and plasma pressure across EPDs occur?
The results indicate that: (1.) The electromagnetic energy associated with EPDs presents a preference for interhemispheric flows; that is, the related Poynting flux directs from one magnetic hemisphere to the other and varies with longitude and season. (2.) The field-aligned currents at the edges of EPDs are interhemispheric. They generally close in the hemisphere with the highest Pedersen conductance. Such hemispherical preference presents a seasonal/longitudinal dependence. The diamagnetic currents increase or decrease the magnetic pressure inside EPDs. These two effects rely on variations of the plasma temperature inside the EPDs that depend on longitude and local time. (3.) EPDs present lower or higher plasma pressure than the ambient. For low-pressure EPDs the plasma pressure gradients are mostly dominated by variations of the plasma density so that variations of the temperature are negligible. High-pressure EPDs suggest significant temperature variations with magnitudes of approximately twice the ambient. Since their occurrence is more frequent in the vicinity of the South Atlantic magnetic anomaly, such high temperatures are suggested to be due to particle precipitation.
In a broader context, this dissertation shows how dedicated satellite missions with high-resolution capabilities improve the specification of the low-latitude ionospheric electrodynamics and expand knowledge on EPDs which is valuable for current and future communication, navigation, and Earth-observing missions. The contributions of this investigation represent several ’firsts’ in the study of EPDs: (1.) The first observational evidence of interhemispheric electromagnetic energy flux and field-aligned currents. (2.) The first spatial and temporal characterization of EPDs based on their associated field-aligned and diamagnetic currents. (3.) The first evidence of high plasma pressure in regions of depleted plasma density in the ionosphere. These findings provide new insights that promise to advance our current knowledge of not only EPDs but the low-latitude post-sunset ionosphere environment.
As one of the most-produced commodity polymers, polypropylene draws considerable scientific and commercial interest as an electret material. In the present thesis, the influence of the surface chemical modification and crystalline reconstruction on the electret properties of the polypropylene thin films will be discussed. The chemical treatment with orthophosphoric acid can significantly improve the surface charge stability of the polypropylene electrets by introducing phosphorus- and oxygen-containing structures onto the modified surface. The thermally stimulated discharge measurement and charge profiling by means of piezoelectrically generated pressure steps are used to investigate the electret behaviour. It is concluded that deep traps of limited number density are created during the treatment with inorganic chemicals. Hence, the improvement dramatically decreases when the surface-charge density is substantially higher than ±1.2×10^(-3) C·m^(-2). The newly formed traps also show a higher trapping energy for negative charges. The energetic distributions of the traps in the non-treated and chemically treated samples offer an insight regarding the surface and foreign-chemical dominance on the charge storage and transport in the polypropylene electrets.
Additionally, different electret properties are observed on the polypropylene films with the spherulitic and transcrystalline structures. It indicates the dependence of the charge storage and transport on the crystallite and molecular orientations in the crystalline phase. In general, a more diverse crystalline growth in the spherulitic samples can result in a more complex energetic trap distribution, in comparison to that in a transcrystalline polypropylene. The double-layer transcrystalline polypropylene film with a crystalline interface in the middle can be obtained by crystallising the film in contact with rough moulding surfaces on both sides. A layer of heterocharges appears on each side of the interface in the double-layer transcrystalline polypropylene electrets after the thermal poling. However, there is no charge captured within the transcrystalline layers. The phenomenon reveals the importance of the crystalline interface in terms of creating traps with the higher activation energy in polypropylene. The present studies highlight the fact that even slight variations in the polypropylene film may lead to dramatic differences in its electret properties.
Exploring elections features from a geographical perspective is the focus of this study. Its primary objective is to develop a scientific approach based on geoinformation technology (GIT) that promotes deeper understanding how geographical settings affect the spatial and temporal variations of voting behaviour and election outcomes. For this purpose, the five parliamentary elections (1991-2005) following the political turnaround in 1990 in the South East European reform country Albania have been selected as a case study. Elections, like other social phenomena that do not develop uniformly over a territory, inherit a spatial dimension. Despite of fact that elections have been researched by various scientific disciplines ranging from political science to geography, studies that incorporate their spatial dimension are still limited in number and approaches. Consequently, the methodologies needed to generate an integrated knowledge on many facets that constitute election features are lacking. This study addresses characteristics and interactions of the essential elements involved in an election process. Thus, the baseline of the approach presented here is the exploration of relations between three entities: electorate (political and sociodemographic features), election process (electoral system and code) and place (environment where voters reside). To express this interaction the concept of electoral pattern is introduced. Electoral patterns are defined by the study as the final view of election results, chiefly in tabular and/or map form, generated by the complex interaction of social, economic, juridical, and spatial features of the electorate, which has occurred at a specific time and in a particular geographical location. GIT methods of geoanalysis and geovisualization are used to investigate the characteristics of electoral patterns in their spatial and temporal distribution. Aggregate-level data modelled in map form were used to analyse and visualize the spatial distribution of election patterns components and relations. The spatial dimension of the study is addressed in the following three main relations: One, the relation between place and electorate and its expression through the social, demographic and economic features of the electorate resulting in the profile of the electorate’s context; second, the electorate-election interaction which forms the baseline to explore the perspective of local contextual effects in voting behaviour and election results; third, the relation between geographical location and election outcomes reflecting the implication of determining constituency boundaries on election results. To address the above relations, three types of variables: geo, independent and dependent, have been elaborated and two models have been created. The Data Model, developed in a GIS environment, facilitates structuring of election data in order to perform spatial analysis. The peculiarity of electoral patterns – a multidimensional array that contains information on three variables, stored in data layers of dissimilar spatial units of reference and scales of value measurement – prohibit spatial analysis based on the original source data. To perform a joint spatial analysis it is therefore mandatory to restructure the spatial units of reference while preserving their semantic content. In this operation, all relevant electoral as well as socio-demographic data referenced to different administrative spatial entities are re-referenced to uniform grid cells as virtual spatial units of reference. Depending on the scale of data acquisition and map presentation, a cell width of 0.5 km has been determined. The resulting fine grid forms the basis of subsequent data analyses and correlations. Conversion of the original vector data layers into target raster layers allows for unification of spatial units, at the same time retaining the existing level of detail of the data (variables, uniform distribution over space). This in turn facilitates the integration of the variables studied and the performance of GIS-based spatial analysis. In addition, conversion to raster format makes it possible to assign new values to the original data, which are based on a common scale eliminating existing differences in scale of measurement. Raster format operations of the type described are well-established data analysis techniques in GIT, yet they have rarely been employed to process and analyse electoral data. The Geovisualization Model, developed in a cartographic environment, complements the Data Model. As an analog graphic model it facilitates efficient communication and exploration of geographical information through cartographic visualization. Based on this model, 52 choropleth maps have been generated. They represent the outcome of the GIS-based electoral data analysis. The analog map form allows for in-depth visual analysis and interpretation of the distribution and correlation of the electoral data studied. For researchers, decision makers and a wider public the maps provide easy-to-access information on and promote easy-to-understand insight into the spatial dimension, regional variation and resulting structures of the electoral patterns defined.
Objective: The behaviors of endothelial cells or mesenchymal stem cells are remarkably influenced by the mechanical properties of their surrounding microenvironments. Here, electrospun fiber meshes containing various mechanical characteristics were developed from polyetheresterurethane (PEEU) copolymers. The goal of this study was to explore how fiber mesh stiffness affected endothelial cell shape, growth, migration, and angiogenic potential of endothelial cells. Furthermore, the effects of the E-modulus of fiber meshes on human adipose-derived stem cells (hADSCs) osteogenic potential was investigated.
Methods: Polyesteretherurethane (PEEU) polymers with various poly(p-dioxanone) (PPDO) to poly (ε-caprolactone) (PCL) weight percentages (40 wt.%, 50 wt.%, 60 wt.%, and 70 wt.%) were synthesized, termed PEEU40, PEEU50, PEEU60, and PEEU70, accordingly. The electrospinning method was used for the preparation of PEEU fiber meshes. The effects of PEEU fiber meshes with varying elasticities on the human umbilical vein endothelial cells (HUVECs) shape, growth, migration and angiogenic potential were characterized. To determine how the E-modulus of fiber meshes affects the osteogenic potential of hADSCs, the cellular and nuclear morphologies and osteogenic differentiation abilities were evaluated.
Results: With the increasing stiffness of PEEU fiber meshes, the aspect ratios of HUVECs cultivated on PEEU materials increased. HUVECs cultivated on high stiffness fiber meshes (4.5 ± 0.8 MPa) displayed a considerably greater proliferation rate and migratory velocity, in addition demonstrating increased tube formation capability, compared with those of the cells cultivated on lower stiffness fiber meshes (2.6 ± 0.8 MPa). Furthermore, in comparison to those cultivated on lower stiffness fiber meshes, hADSCs adhered to the highest stiffness fiber meshes PEEU70 had an elongated shape. The hADSCs grown on the softer PEEU40 fiber meshes showed a reduced nuclear aspect ratio (width to height) than those cultivated on the stiffer fiber meshes. Culturing hADSCs on stiffer fibers improved their osteogenic differentiation potential. Compared with cells cultured on PEEU40, osteocalcin expression and alkaline phosphatase (ALP) activity increased by 73 ± 10% and 43 ± 16%, respectively, in cells cultured on PEEU70.
Conclusion: The mechanical characteristics of the substrate are crucial in the modulation of cell behaviors. These findings indicate that adjusting the elasticity of fiber meshes might be a useful method for controlling the blood vessels development and regeneration. Furthermore, the mechanical characteristics of PEEU fiber meshes might be modified to control the osteogenic potential of hADSCs.
Adherent cells constantly collect information about the mechanical properties of their extracellular environment by actively pulling on it through cell-matrix contacts, which act as mechanosensors. In recent years, the sophisticated use of elastic substrates has shown that cells respond very sensitively to changes in effective stiffness in their environment, which results in a reorganization of the cytoskeleton in response to mechanical input. We develop a theoretical model to predict cellular self-organization in soft materials on a coarse grained level. Although cell organization in principle results from complex regulatory events inside the cell, the typical response to mechanical input seems to be a simple preference for large effective stiffness, possibly because force is more efficiently generated in a stiffer environment. The term effective stiffness comprises effects of both rigidity and prestrain in the environment. This observation can be turned into an optimization principle in elasticity theory. By specifying the cellular probing force pattern and by modeling the environment as a linear elastic medium, one can predict preferred cell orientation and position. Various examples for cell organization, which are of large practical interest, are considered theoretically: cells in external strain fields and cells close to boundaries or interfaces for different sample geometries and boundary conditions. For this purpose the elastic equations are solved exactly for an infinite space, an elastic half space and the elastic sphere. The predictions of the model are in excellent agreement with experiments for fibroblast cells, both on elastic substrates and in hydrogels. Mechanically active cells like fibroblasts could also interact elastically with each other. We calculate the optimal structures on elastic substrates as a function of material properties, cell density and the geometry of cell positioning, respectively, that allows each cell to maximize the effective stiffness in its environment due to the traction of all the other cells. Finally, we apply Monte Carlo simulations to study the effect of noise on cellular structure formation. The model not only contributes to a better understanding of many physiological situations. In the future it could also be used for biomedical applications to optimize protocols for artificial tissues with respect to sample geometry, boundary condition, material properties or cell density.
El objetivo de este trabajo es investigar cómo se evoca la realidad del habla en la novela Rosario Tijeras, del colombiano Jorge Franco, y sus traducciones al alemán y al inglés. En esta novela negra, el autor recurre a un lenguaje coloquial llamado parlache, típico de un sector socioeconómico marginal de Medellín, y cuya influencia se ha extendido a todos los ámbitos de la ciudad y del país. El estudio se centrará en la descripción de la variación diatópica y diastrática en la ficción; concretamente, de las expresiones típicas del parlache. Con ello se pretende determinar la contribución de ciertos recursos lingüísticos típicos de esta variedad del español a la construcción de un diálogo hablado verosímil. Además, se estudiará cómo se reexpresa este «colorido local» en la evocación de la oralidad en las traducciones. Se intentarán determinar, por tanto, las divergencias de traducción y profundizar en la descripción de la variación lingüística (diatópica y diastrática) en la traducción literaria.
In dieser Arbeit wurden Nano-Elektroden-Arrays zur Einzel-Objekt-Immobilisierung mittels Dielektrophorese verwendet. Hierbei wurden fluoreszenzmarkierte Nano-Sphären als Modellsystem untersucht und die gewonnenen Ergebnisse auf biologische Proben übertragen. Die Untersuchungen in Kombination mit verschiedenen Elektrodenlayouts führten zu einer deterministischen Vereinzelung der Nano-Sphären ab einem festen Größenverhältnis zwischen Nano-Sphäre und Durchmesser der Elektrodenspitzen. An den Proteinen BSA und R-PE konnte eine dielektrophoretische Immobilisierung ebenfalls demonstriert und R-PE Moleküle zur Vereinzelung gebracht werden. Hierfür war neben einem optimierten Elektrodenlayout, das durch Feldsimulationen den Feldgradienten betreffend gesucht wurde, eine Optimierung der Feldparameter, insbesondere von Spannung und Frequenz, erforderlich.
Neben der Dielektrophorese erfolgten auch Beobachtungen anderer Effekte des elektrischen Feldes, wie z.B. Elektrolyse an Nano-Elektroden und Strömungen über dem Elektroden-Array, hervorgerufen durch Joulesche Wärme und AC-elektroosmotischen Fluss. Zudem konnte Dielektrophorese an Silberpartikeln beobachtet werden und mittels Fluoreszenz-, Atom-Kraft-, Raster-Elektronen-Mikroskopie und energiedispersiver Röntgenspektroskopie untersucht werden. Schließlich wurden die verwendeten Objektive und Kameras auf ihre Lichtempfindlichkeit hin analysiert, so dass die Vereinzelung von Biomolekülen an Nano-Elektroden nachweisbar war.
Festzuhalten bleibt also, dass die Vereinzelung von Nano-Objekten und Biomolekülen an Nano-Elektroden-Arrays gelungen ist. Durch den parallelen Ansatz erlaubt dies, Aussagen über das Verhalten von Einzelmolekülen mit guter Statistik zu treffen.
Typische assoziative Verdicker für wässrige Systeme basieren auf linearen, doppelt hydrophob endmodifizierten Poly(ethylenglykolen) (PEGs). Diese Polymere aggregieren aufgrund ihrer Struktur in wässriger Lösung und bilden ein Netzwerk aus verbrückten Polymer-Mizellen. Dabei kann ein Polymer-Molekül maximal zwei Mizellen miteinander verbinden. Bisher ist unklar, wie die Anzahl der Endgruppen eines verzweigten, mehrfach hydrophob endmodifizierten hydrophilen Polymers die Struktur und Dynamik solcher Netzwerke beeinflusst. Die Synthese verzweigter Polymere auf PEG-Basis erfolgt mittels lebender ionischer Polymerisation und ist experimentell aufwändig. Das Einführen hydrophober Endgruppen erfordert zusätzliche Synthese-Schritte. In dieser Arbeit wurden hydrophile Sternpolymere mit hydrophoben Endgruppen in einem Schritt hergestellt. Dazu wurde die Technik der radikalischen Polymerisation unter Kettenübertragung durch reversible Addition und anschließende Fragmentierung (reversible addition-fragmentation chain transfer, RAFT) genutzt. Die Synthese der Sternpolymere erfolgte von einem multifunktionalen Kern, der die R-Gruppe der RAFT-Kettenüberträger (chain transfer agents, CTAs) bildete. Die dazu benötigten CTAs wurden so konzipiert, dass mit ihrer Hilfe sowohl die Anzahl der Arme des Sternpolymers (von 2 bis 4), als auch die Länge der hydrophoben Endgruppe (C4, C12, C18) variiert werden konnte. Der große Vorteil der RAFT-Polymerisation ist, dass sie viele polare Monomere für die Synthese der hydrophilen Arme des Sternpolymers toleriert. In dieser Arbeit wurden als Modell-Monomere Oligo(ethylenglykol)methylether-acrylat (OEGA) und N,N-Dimethylacrylamid (DMA) eingesetzt. Beide Monomere bilden nicht-ionische hydrophile Polymere. Poly(OEGA) ist ein Kammpolymer, das auf PEG basiert. Poly(DMA) besitzt dagegen eine deutlich kompaktere Struktur. Die erhaltenen amphiphilen Sternpolymere wurden umfassend molekular charakterisiert. Die Molmassen wurden mit verschiedenen GPC-Systemen bestimmt und der Grad der Endgruppenfunktionalisierung wurde mittels UV/Vis- und 1H-NMR-Spektroskopie überprüft. Die Polymerisation von OEGA zeigt mit den CTAs einige Charakteristika der Polymerisation mit reversibler Deaktivierung (RDRP, auch „kontrollierte radikalische Polymerisation“), wird aber durch Kettenübertragung zum Monomer bzw. Polymer gestört. Diese Nebenreaktion ist auf die Struktur des Monomers als Oligoether zurückzuführen. Bei allen untersuchten Polymerisationen von DMA mit den multifunktionalen CTAs steigt die Molmasse linear mit dem Umsatz. Die erhaltenen Polymere zeigen durchweg monomodale und enge Molmassenverteilungen (PDI ≤ 1,2). Die Molmassen lassen sich in einem weiten Bereich von 25 kg/mol bis 150 kg/mol einstellen und die Endgruppen der Polymere bleiben zu 90 % erhalten. Während die Polymerisation von DMA sowohl mit den di- als auch den trifunktionalen CTAs innerhalb von 3 h zu quantitativen Umsätzen verläuft, wird der quantitative Umsatz des Monomers bei der Polymerisation mit tetrafunktionalen CTAs erst nach 4 h erreicht. Diese Verzögerung ist auf eine Retardierung in der Anfangsphase der Polymerisation zurückzuführen, die sich aus der besonderen Struktur der tetrafunktionalen CTAs erklärt. Auf dem System zur Polymerisation von DMA aufbauend ließen sich Gradienten-Block-Copolymere in Eintopfreaktionen herstellen. Dazu wurde nach Erreichen des quantitativen Umsatzes von DMA ein zweites Monomer zur Reaktionsmischung gegeben. Mit Ethylacrylat (EtA) wurden so lineare amphiphile symmetrische Triblock-Copolymere erhalten. Dabei wurde die Länge des hydrophoben Blocks durch unterschiedliche Mengen an EtA variiert. Mit N,N-Diethylacrylamid (DEA) wurden lineare symmetrische Triblock-Copolymere sowie 3-Arm Stern-Diblock-Copolymere hergestellt, die über einen thermisch schaltbaren zweiten Block verfügen. Bei diesen Polymeren lässt sich die Länge des hydrophoben Teils in situ durch Veränderung der Temperatur variieren. Das Verhalten der amphiphilen Sternpolymere in wässriger Lösung und in Mikroemulsion wurde im Rahmen einer Kooperation an der TU Berlin mit Hilfe von Kleinwinkel-Neutronenstreuung (SANS), dynamischer Lichtstreuung (DLS) und Rheologie untersucht. Die Polymere wirken durch Assoziation der hydrophoben Endgruppen als effektive Verdicker sowohl allein in wässriger Lösung als auch in Mikroemulsion. Die Struktur des gebildeten Netzwerks hängt dabei von der Konzentration des Polymers in der Lösung und der Länge der Endgruppe (Hydrophobie) ab. Die dynamischen Eigenschaften der Lösungen werden außerdem durch die Anzahl der Arme der Polymere bestimmt.
Hintergrund: Gestillte Kinder haben im Vergleich zu nicht gestillten Kindern eine geringere Inzidenz von gastrointestinalen Infektionen und atopischen Erkrankungen. Man geht davon aus, dass der gesundheitsfördernde Effekt der Muttermilch teilweise über die intestinale Mikrobiota vermittelt wird. Diese ist in Stillkindern durch eine geringe Diversität und einen hohen Anteil an Bifidobakterien charakterisiert. Neueste Ansätze in der Weiterentwicklung industriell hergestellter Säuglingsnahrung zielen darauf ab, eine intestinale Mikrobiota zu fördern, die der von gestillten Kindern ähnelt. Die Supplementation von Säuglingsnahrung mit Probiotika (lebende Mikroorganismen) oder Präbiotika (unverdauliche Kohlenhydrate, die als Energiesubstrat für probiotische Bakterien dienen) könnte die bifidogene und antipathogene, aber auch immunmodulierende Wirkung der Muttermilch nachahmen. Aufgrund unterschiedlicher Interaktionen mit der Darmmikrobiota und dem Immunsystem fokussiert man mit der gleichzeitigen Gabe von Pro- und Präbiotika (Synbiotika) eine synergistische Wirkung an. Zielstellung und Studiendesign: In einer randomisiert-kontrollierten, klinischen Studie wurde untersucht, ob sich in den ersten drei Lebensmonaten von gesunden und termingerecht geborenen Kindern mit einer Synbiotikum-haltigen Säuglingsnahrung eine intestinale Mikrobiota etabliert, die der von gestillten Kindern gleicht. Das Synbiotikum setzte sich aus Bifidobacterium animalis ssp. lactis CNCM I 3446 (ältere Bezeichnung B. lactis BB-12) und Kuhmilcholigosacchariden zusammen. Die Studie umfasste zwei Gruppen von Kindern, die eine Säuglingsnahrung mit (SYN-Gruppe, n=21) oder ohne Supplement (KON-Gruppe, n=18) erhielten. Gestillte Kinder dienten als Referenz (REF-Gruppe, n=23). Um die Diversität der Bifidobakterien auf Speziesebene umfassend zu charakterisieren, wurden quantitative Real-Time PCR (qPCR)-Verfahren, basierend auf dem single-copy groEL als phylogenetisches Zielgen, zur spezifischen Quantifizierung von zwölf Bifidobakterienspezies in humanen Fäzes entwickelt und validiert. Ergebnisse: Die supplementierte Säuglingsnahrung war gut verträglich und unterstützte eine gesunde Entwicklung; vergleichbare anthropometrische Daten von SYN- und REF-Gruppe. Das Synbiotikum stimulierte selektiv das Wachstum von Laktobazillen und Bifidobakterien. Die Zellzahl für Laktobazillen der SYN-Gruppe war zur REF-Gruppe äquivalent (9,07±0,32 versus 9,90±0,27 log10 Zellen/g Fäzes TM [MW±SEM]; p<0,0019; Äquivalenzdifferenz von 1 log10 Zellen/g Fäzes TM) und höher als in der KON-Gruppe (8,27±0,31 log10 Zellen/g Fäzes TM [MW±SEM]). Die Zellzahl für Bifidobakterien war in der SYN-Gruppe am höchsten (11,54±0,05 versus 11,00±0,17 [REF-Gruppe] und 10,54±0,24 [KON-Gruppe] log10 Zellen/g Fäzes TM [MW±SEM]). In der SYN-Gruppe wurde die höchste Anzahl an Bifidobakterienspezies erfasst (167 mit [128 ohne] B. animalis in 56 Fäzesproben versus 98 und 93 in jeweils 51 Fäzesproben der REF- und KON-Gruppe). Neben Kinder-typischen Spezies wie B. bifidum und B. breve wurden auch Spezies, die für Erwachsene charakteristisch sind (B. adolescentis), häufiger in der SYN-Gruppe als in den Vergleichsgruppen nachgewiesen. Der pH-Wert in Fäzes von Kindern aus der SYN-Gruppe war niedriger als der aus der KON-Gruppe (6,07±0,20 versus 6,45±0,17 [MW±SEM]) und näher an dem von gestillten Kindern mit 5,29±0,12 (MW±SEM). Schlussfolgerung: Die Supplementation einer Säuglingsnahrung mit dem Synbiotikum aus CNCM I-3446 und Kuhmilcholigosacchariden führte zu einer Angleichung in der Zusammensetzung der intestinalen Mikrobiota und des fäkalen pH-Wertes an gestillte Kinder. Die in dieser Arbeit entwickelten groEL-basierten qPCR-Verfahren erlaubten eine spezifische und genaue Analyse der Bifidobakterienpopulation unter dem Einfluss eines Synbiotikums.
Im Hinblick auf die Problematik der Umweltverschmutzung durch die Nutzung fossiler Brennstoffe ist es nötig, eine langfristig stabile und umweltfreundliche Energieversorgung zu gewährleisten. Eine Möglichkeit, den Energiebedarf CO2-neutral zu decken, ist die Nutzung von Biogas. Hierbei spielt der Einsatz von biogenen Reststoffen, die durch einen hohen Anteil an Kohlenhydraten, Fetten und Proteinen gekennzeichnet sind und daher ein hohes Biogaspotential besitzen, eine wichtige Rolle. Voraussetzung für die Effizienz und Rentabilität solcher Anlagen ist u. a. ein stabiler Gasbildungsprozess. Da bisher noch nicht alle Aspekte der Biogasbildung vollständig verstanden sind, werden die Anlagen oft nicht optimal ausgelastet, um Prozessstörungen wie z. B. Übersäuerung zu vermeiden.
Um dennoch auftretende Prozessstörungen zu beheben, können unterschiedliche Maßnahmen durchgeführt werden. Neben der Senkung der Raumbelastung, ist es möglich, den pH-Wert durch die Zugabe von Natronlauge oder Calciumoxid anzuheben.
In der vorliegenden Arbeit wurden sowohl Prozessstörungen als auch Prozessregenerierungen an einer großtechnischen Biogasanlage und in Laborversuchen untersucht. Dabei galt es, neben den physikalischen und chemischen Parametern, die mikrobielle Biozönose mit Hilfe des genetischen Fingerprintings zu charakterisieren und Änderungen zu detektieren.
Während der Prozessregenerierungen wurden nach der Zugabe von CaO Veränderungen des Gärrestes beobachtet. Es bildeten sich Pellets, die im Hinblick auf ihre Funktion für die Prozessregenerierung und die Prozessstabilität molekularbiologisch und mikroskopisch untersucht wurden. Es wurde weiterhin der Frage nachgegangen, welche Rolle die Mikroorganismen bei der Entstehung der Pellets spielen.
Die vor allem aus Calcium und Fettsäuren bestehenden Pellets dienten als Aufwuchsflächen für verschiedene Mikroorganismen. Die Bildung von Biofilmen, wie sie auf und in den Pellets nachgewiesen wurde, bot für Mikroorganismen einen Schutz vor negativen Umwelteinflüssen wie z. B. hohe Propionsäurekonzentrationen. Unter diesen günstigen Bedingungen war die Bildung von Biogas auch unter hohen Wasserstoffpartialdrücken, die den Abbau von Propionsäure hemmten, möglich. Als Indikator für bessere Lebensbedingungen wurde im Laborversuch ein Methanoculleus receptaculi-verwandter Organismus identifiziert. Dieses methanogene Archaeon wurde im Pellet nachgewiesen, während es im Gärrest erst nach der Prozessregenerierung detektiert wurde. Der Nachweis eines im Vergleich zum umgebenden Gärrest höheren Anteils an Archaeen im Kern der Pellets sowie von Biofilmen/EPS, verschiedenen Phosphatsalzen und schwerlöslichen Calciumsalzen zeigte, dass sowohl Präzipitation und Adsorption als auch Degradation von LCFA dazu führen, dass deren Konzentration im flüssigen Gärrest gesenkt wird. Dadurch nimmt die Hemmung auf die Biozönose ab und die Biogasbildungsrate steigt. Daher ist der Abbau der Fettsäuren auch bei einem niedrigen pH-Wert und unter hohen Wasserstoffpartialdrücken möglich und der Biogasbildungsprozess ist langfristig stabil. Die Bildung von Pellets unterstützt die Prozessstabilität, sofern diese nicht zu groß werden und dann u. a. die Durchmischung behindern und den Ablauf verstopfen.
Nach erfolgreicher Prozessstabilisierung wurden keine Pellets im Gärrest beobachtet. Der Abbau des organischen Materials wurde sowohl durch die steigende Calciumkonzentration als auch die steigende Gasproduktion angezeigt.
Die Häufung von Diabetes, Herz-Kreislauf-Erkrankungen und einigen Krebsarten, deren Entstehung auf Übergewicht und Bewegungsmangel zurückzuführen sind, ist ein aktuelles Problem unserer Gesellschaft. Insbesondere mit fortschreitendem Alter nehmen die damit einhergehenden Komplikationen zu. Umso bedeutender ist das Verständnis der pathologischen Mechanismen in Folge von Adipositas, Bewegungsmangel, des Alterungsprozesses und den Einfluss-nehmenden Faktoren.
Ziel dieser Arbeit war die Entstehung metabolischer Erkrankungen beim Menschen zu untersuchen. Die Auswertung von Verlaufsdaten anthropometrischer und metabolischer Parameter der 584 Teilnehmern der prospektiven ‚Metabolisches Syndrom Berlin Potsdam Follow-up Studie‘ wies für die gesamte Kohorte einen Anstieg an Übergewicht, ebenso eine Verschlechterung des Blutdrucks und des Glukosestoffwechsels auf. Wir untersuchten, ob das Hormon FGF21 Einfluss an dem Auftreten eines Diabetes mellitus Typ 2 (T2DM) oder des Metabolischen Syndroms (MetS) hat. Wir konnten zeigen, dass Personen, die später ein MetS entwickeln, bereits zu Studienbeginn einen erhöhten FGF21-Spiegel, einen höheren BMI, WHR, Hb1Ac und diastolischen Blutdruck aufwiesen. Neben FGF21 wurde auch Vaspin in diesem Zusammenhang untersucht. Es zeigte sich, dass Personen, die später einen T2DM entwickeln, neben einer Erhöhung klinischer Parameter tendenziell erhöhte Spiegel des Hormons aufwiesen. Mit FGF21 und Vaspin wurden hier zwei neue Faktoren für die Vorhersage des Metabolischen Syndroms bzw. Diabetes mellitus Typ 2 identifiziert.
Der langfristige Effekt einer Gewichtsreduktion wurde in einer Subkohorte von 60 Personen untersucht. Der überwiegende Teil der Probanden mit Gewichtsabnahme-Intervention nahm in der ersten sechsmonatigen Phase erfolgreich ab. Jedoch zeigte sich ein deutlicher Trend zur Wiederzunahme des verlorenen Gewichts über den Beobachtungszeitraum von fünf Jahren. Von besonderem Interesse war die Abschätzung des kardiovaskulären Risikos über den Framingham Score. Es wurde deutlich, dass für Personen mit konstanter Gewichtsabnahme ein deutlich geringeres kardiovaskuläres Risiko bestand. Hingegen zeigten Personen mit konstanter Wiederzunahme oder starken Gewichtsschwankungen ein hohes kardiovaskuläres Risiko. Unsere Daten legten nahe, dass eine erfolgreiche dauerhafte Gewichtsreduktion statistisch mit einem erniedrigten kardiovaskulären Risiko assoziiert ist, während Probanden mit starken Gewichtsschwankungen oder einer Gewichtszunahme ein gesteigertes Risiko haben könnten.
Um die Interaktion der molekularen Vorgänge hinsichtlich der Gewichtsreduktion und Lebensspanne untersuchen zu können, nutzen wir den Modellorganismus C.elegans. Eine kontinuierliche Restriktion wirkte sich verlängernd, eine Überversorgung verkürzend auf die Lebensspanne des Rundwurms aus. Der Einfluss eines zeitlich eingeschränkten, intermittierenden Nahrungsregimes, analog zum Weight-Cycling im Menschen, auf die Lebensspanne war von großem Interesse. Dieser regelmäßige Wechsel zwischen ad libitum Fütterung und Restriktion hatte in Abhängigkeit von der Häufigkeit der Restriktion einen unterschiedlich starken lebensverlängernden Effekt. Phänomene, wie Gewichtswiederzunahmen, sind in C.elegans nicht zu beobachten und beruhen vermutlich auf einem Mechanismus ist, der evolutionär jünger und in C.elegans noch nicht angelegt ist.
Um neue Stoffwechselwege zu identifizieren, die die Lebensspanne beeinflussen, wurden Metabolitenprofile genetischer als auch diätetischer Langlebigkeitsmodelle analysiert. Diese Analysen wiesen den Tryptophan-Stoffwechsel als einen neuen, bisher noch nicht im Fokus stehenden Stoffwechselweg aus, der mit Langlebigkeit in Verbindung steht.
Ziel der vorliegenden Arbeit war es, die Auswirkungen von Glucose- und Lipidtoxizität auf die Funktion der β-Zellen von Langerhans-Inseln in einem diabetesresistenten (B6.V-Lepob/ob, ob/ob) sowie diabetessuszeptiblen (New Zealand Obese, NZO) Mausmodell zu untersuchen. Es sollten molekulare Mechanismen identifiziert werden, die zum Untergang der β-Zellen in der NZO-Maus führen bzw. zum Schutz der β-Zellen der ob/ob-Maus beitragen. Zunächst wurde durch ein geeignetes diätetisches Regime in beiden Modellen durch kohlenhydratrestriktive Ernährung eine Adipositas(Lipidtoxizität) induziert und anschließend durch Fütterung einer kohlenhydrathaltigen Diät ein Zustand von Glucolipotoxizität erzeugt. Dieses Vorgehen erlaubte es, in der NZO-Maus in einem kurzen Zeitfenster eine Hyperglykämie sowie einen β-Zelluntergang durch Apoptose auszulösen. Im Vergleich dazu blieben ob/ob-Mäuse längerfristig normoglykämisch und wiesen keinen β-Zelluntergang auf. Die Ursache für den β-Zellverlust war die Inaktivierung des Insulin/IGF-1-Rezeptor-Signalwegs, wie durch Abnahme von phospho-AKT, phospho-FoxO1 sowie des β-zellspezifischen Transkriptionsfaktors PDX1 gezeigt wurde. Mit Ausnahme des Effekts einer Dephosphorylierung von FoxO1, konnten ob/ob-Mäuse diesen Signalweg aufrechterhalten und dadurch einen Verlust von β-Zellen abwenden. Die glucolipotoxischen Effekte wurden in vitro an isolierten Inseln beider Stämme und der β-Zelllinie MIN6 bestätigt und zeigten, dass ausschließlich die Kombination hoher Glucose und Palmitatkonzentrationen (Glucolipotoxizität) negative Auswirkungen auf die NZO-Inseln und MIN6-Zellen hatte, während ob/ob-Inseln davor geschützt blieben. Die Untersuchung isolierter Inseln ergab, dass beide Stämme unter glucolipotoxischen Bedingungen keine Steigerung der Insulinexpression aufweisen und sich bezüglich ihrer Glucose-stimulierten Insulinsekretion nicht unterscheiden. Mit Hilfe von Microarray- sowie immunhistologischen Untersuchungen wurde gezeigt, dass ausschließlich ob/ob-Mäuse nach Kohlenhydratfütterung eine kompensatorische transiente Induktion der β-Zellproliferation aufwiesen, die in einer nahezu Verdreifachung der Inselmasse nach 32 Tagen mündete. Die hier erzielten Ergebnisse lassen die Schlussfolgerung zu, dass der β-Zelluntergang der NZO-Maus auf eine Beeinträchtigung des Insulin/IGF-1-Rezeptor-Signalwegs sowie auf die Unfähigkeit zur β- Zellproliferation zurückgeführt werden kann. Umgekehrt ermöglichen der Erhalt des Insulin/IGF-1-Rezeptor-Signalwegs und die Induktion der β-Zellproliferation in der ob/ob-Maus den Schutz vor einer Hyperglykämie und einem Diabetes.
Ziel dieser Arbeit ist es, ein sequentielles Extraktionsverfahren zur Erfassung unterschiedlich stabiler Anteile der orgnischen Bodensubstanz (OBS) zu entwickeln und zu klären, ob ein Zusammenhang zwischen Löslichkeit und Stabilität besteht. Darüber hinaus sollen der Einfluss von Bewirtschaftungsmaßnahmen auf Menge und Zusammensetzung dieser OBS-Anteile und Zusammenhänge zwischen Fourier Transform Infrarot (FT-IR)-Spektroskopiedaten und der Kationenaustauschkapazität (KAK) der OBS analysiert werden. Für die Untersuchungen wurden Böden der Langzeitfeldexperimente (LFE) in Halle, Bad Lauchstädt und Rotthalmünster beprobt. Zur Erfassung unterschiedlicher OBS-Fraktionen wurden im ersten Schritt die wasserlöslichen OBS-Anteile (OBS(W)-Fraktion) aus den Böden isoliert. Im zweiten Schritt wurden aus den Extraktionsrückständen der Wasserextraktion OBS-Anteile mit einer Natrium (Na)-Pyrophosphatlösung extrahiert (OBS(PY)-Fraktion). Die Stabilität der OBS-Fraktionen wurde anhand von δ13C-Bestimmungen und 14C-Messungen untersucht. Die Charakterisierung der Zusammensetzung der OBS-Fraktionen erfolgte mittels FT-IR Spektroskopie. Generell wird mit der OBS(PY)-Fraktion ein größerer Anteil am organischen Kohlenstoffgehalt der Böden erfasst als mit der OBS(W)-Fraktion. Die δ13C- und 14C-Daten zeigen, dass die OBS(W)-Fraktion höhere Anteile jungen organischen Materials als die OBS(PY)-Fraktion enthält. Das entwickelte sequentielle Extraktionsverfahren ist also prinzipiell geeignet unterschiedlich stabile OBS-Anteile anhand ihrer Löslichkeit zu isolieren. Mittels FT-IR spektroskopischer Untersuchungen wird festgestellt, dass Bewirtschaftungsmaßnahmen, wie die Düngung, sowie Standorteigenschaften die Zusammensetzung der OBS-Fraktionen beeinflussen. Für die OBS(PY)-Fraktion ist dies stärker ausgeprägt als für die OBS(W)-Fraktion. Die KAK der OBS(PY)-Fraktion aus den Böden der LFE in Halle und Bad Lauchstädt ist positiv mit der Absorptionsintensität der C=O-Bande in den FT-IR Spektren dieser OBS-Fraktion korreliert.
Ein hoher Verzehr von Obst und Gemüse scheint das Risiko der Inzidenz verschiedener Erkrankungen zu reduzieren. Es wird vermutet, dass eine Gruppe sekundärer Pflanzeninhaltsstoffe, die Flavonoide, hierfür verantwortlich sind. Mögliche Effekte auf die intestinale Barrierefunktion dieser Substanzklasse sind jedoch weitgehend ungeklärt. Parazelluläre Eigenschaften epithelialer Zellen werden hauptsächlich durch die Zell-Zell-Kontakte der Tight Junction (TJ) insbesondere durch die Proteine Occludin und die Claudine definiert. Ziel dieser Arbeit war es, die Effekte des am häufigsten vorkommenden Flavonoids Quercetin auf die Barrierefunktion der Kolonkarzinom-Zelllinie Caco-2 zu untersuchen. Hierbei zeigte sich, dass Quercetin konzentrationsabhängig (50-200 µM) den transepithelialen Widerstand erhöhte. Die Wirkung von 200 µM Quercetin war bereits nach 4 h Inkubation erkennbar und erreichte nach 48 h maximale Werte. Der Wirkverlust, welcher nach 72 h Inkubation eintrat, konnte durch eine tägliche Gabe des Flavonoids verhindert werden. Weiterhin zeigte sich, dass der Quercetin-induzierte Widerstandsanstieg durch mukosale oder serosale Zugabe gleichermaßen auslösbar war. Western Blot-Analysen der TJ-Proteine Occludin, Claudin-1, -3, -4 und -7 ergaben, dass der durch Quercetin-induzierte Widerstandsanstieg insbesondere mit einer Zunahme der Expression des abdichtenden TJ-Proteins Claudin-4 einherging. Quercetin erhöhte ebenfalls die mRNA-Expression von Claudin-4 (quantitative RT-PCR) und bewirkte eine Aktivierung des Claudin-4-Promotors (Luciferase-Reportergen-Analysen). Mittels Immunfluoreszenz-Färbungen und Laserscanning-Mikroskopie konnte ein vermehrter Einbau von Claudin-4 in die TJ nachgewiesen werden. Funktionelle Untersuchungen mittels radioaktiven Fluxmessungen zeigten, dass das Flavonoid die parazelluläre Permeabilität für Natrium und Chlorid reduzierte, aber die Durchlässigkeit von Mannitol als parazellulärer Marker unverändert blieb. Wir konnten hiermit erstmals nachweisen, dass Quercetin die Expression des abdichtenden TJ-Proteins Claudin-4 in den TJ-Komplex verstärkte, wodurch die Ionen-Durchlässigkeit für Natrium und Chlorid vermindert wurde. Das führte zu einer Abdichtung der intestinalen Barriere. Dieser direkte Effekte von Quercetin könnte eine neue Möglichkeit für die Behandlung oder Prävention von Diarrhöe-bedingten intestinalen Barrieredefekten darstellen.
Einfache Decarbonylierungen und stereoselektive Oxidationen von Cyclohexadienen und Cyclohexenen
(2001)
Zusammenfassend konnte im Rahmen dieser Arbeit das Synthesepotential von Cyclohexadienen und Cyclohexenen deutlich erweitert werden. Die Darstellung der 1-Alkylcyclohexa-2,5-dien-1-carbonsäuren erfolgte mittels Birch-Reduktion in flüssigem Ammoniak und anschließender Umsetzung der intermediär entstehenden Dianionen mit Alkylhalogeniden. So konnte ausgehend von verschiedenen Benzoesäurederivaten eine Reihe interessanter Cyclohexadiene in sehr guten Ausbeuten synthetisiert werden. Erstmals gelangen säurekatalysierte Decarbonylierungen von Cyclohexadiencarbonsäuren, was die einfache Synthese substituierter Aromaten in ausgezeichneten Ausbeuten ermöglichte. In dieser Arbeit wird der Reaktionsmechanismus vorgestellt, welcher durch den Nachweis von Kohlenmonoxid in der Gasphase der Reaktionslösung durch IR-Spektroskopie untermauert wird. Bei der säurekatalysierten Umsetzung von 3-alkylsubstituierten Cyclohexadien-carbonsäuren entstanden neben den erwarteten Aromaten Lactone in ca. 50% Ausbeute. Schließlich zeigen die untersuchten Singulettsauerstoff-En-Reaktionen, der im ersten Teil dargestellten Cyclohexadiene und Lactone, durchweg hohe Regioselektivitäten und lieferten durch elektrostatische Wechselwirkungen und konformative Effekte zum Teil sehr gute Diastereoselektivitäten. Die auxiliarkontrollierte Photooxygenierungen von Cyclohexenon welches mit verschiedenen Weinsäureestern ketalisiert wurde, zeigten jedoch keine bevorzugte p-Facialität des Singulettsauerstoffs.
Die Dissertation legt ihren Schwerpunkt auf die synchronische und diachronische Variation im Gebrauch der französischen Kausalkonjunktion parce que sowie auf die Interaktion mit den außersprachlichen Variablen Alter und sozioprofessionelle Kategorie. Basierend auf vorausgehenden makrodiachronischen Studien, die Anhaltspunkte dafür liefern, dass die Konjunktion einen Prozess der Pragmatikalisierung durchlaufen hat und weiterhin durchläuft, wurde ein Untersuchungskorpus von 56 Interviews aus den diachronisch distinkten Korpora ESLO1, ESLO2 und LangAge extrahiert. Dieses Untersuchungskorpus diente als Grundlage für Panelstudien und Trendstudien, die darauf ausgerichtet waren, die Pragmatikalisierung von parce que aus einem mikrodiachronischen Gesichtspunkt zu verifizieren. Zusätzlich zu der diachronischen Perspektive wurde eine synchronische Perspektive eingenommen, um die Variation im Gebrauch der Konjunktion so einem diachronischen Phänomen wie dem age grading oder der apparent time zuordnen zu können. Ausgehend von der Theorie der Konstruktionsgrammatik wurden parce que enthaltende Konstruktionen bottom-up annotiert und in fünf Pragmatikalitätsgrade kategorisiert (pra0–pra4). Diese wurden anschließend quantifiziert und in Abhängigkeit des Geburtsjahres und der sozioprofessionellen Kategorie der (männlichen) Sprecher mithilfe mehrerer R-Modelle wie ctrees, trees, lm, hclust und kmeans analysiert.
Die Frequenzentwicklung der Pragmatikalitätsgrade bestätigte die Pragmatikalisierungshypothese in einem mikrodiachronischen Rahmen. Zudem konnte ein quantitativer Rückgang im Gebrauch der Konstruktionen am nicht- oder weniger pragmatikalisierten (pra0, pra1) Pol festgestellt werden, während Verwendungsweisen höherer Pragmatikalisierungsgrade (pra2–pra4) über 40 Jahre vergleichsweise stabil blieben.
Obwohl für pra2 kein signifikanter Wandel hervortrat, wies dessen Entwicklung bei den Sprechern im mittleren Lebensalter sowie das synchronische Muster in Abhängigkeit von Alter (oder Geburtsjahr) und von sozioprofessioneller Kategorie dennoch in Richtung einer zugrundeliegenden diachronischen Variation. Diese könnte als ein durch die sozialen Transformationen der 1960er und 1970er Jahre katalysiertes Phänomen des age grading interpretiert werden. Für die näher am pragmatischen Pol situierten Gebrauchsweisen (pra3 und pra4) konnte keine klare Tendenz ermittelt werden.
Die Ergebnisse fordern diachronische Konzepte wie age grading und apparent time heraus, indem sie die Simplizität der zugrundeliegenden Mechanismen sowie die gängigen Methoden, diese zu identifizieren, infrage stellen.
In der Dissertationsarbeit mit dem Titel „Eine Hypothese über die Grundlagen von Moral und einige Implikationen“ unternimmt die Autorin den Versuch, die anthropologischen Prämissen moralischen Handelns herauszuarbeiten. Es wird eine Hypothese aufgestellt und erläutert, die behauptet, dass moralisches Handeln nur dann verständlich wird, wenn der Handelnde erstens die Fähigkeit der Phantasie aufweist, zweitens auf Erfahrungen (mittels seines Gedächtnisses) zugreifen kann und durch Konversation mit anderen Personen interagierte und interagiert, denn nur auf der Basis dieser drei Grundlagen von Moral können sich diejenigen Fähigkeiten ent¬wickeln, die als Voraussetzungen moralischen Handeln gesehen werden müssen: Selbstbewusstsein, Freiheit, die Entwicklung eines Wir-Gefühls, die Genese eines moralischen Ideals und die Fähigkeit, sich im Entscheiden und Handeln nach diesem Ideal richten zu können. Außerdem werden in dieser Dissertation einige Implikationen dieser Hypothese auf individueller und zwischenmenschlicher Ebene diskutiert.
Die vorliegende Arbeit mit dem Titel „Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden“ geht der Frage der Heterogenität bei weiblichen Einkommensergebnissen nach. Dabei steht die Thematik der individuellen Investitionen in die familiäre Arbeit als erklärender Faktor im Vordergrund und es wird der Frage nachgegangen, warum die einen Frauen viele und andere weniger häusliche Verpflichtungen übernehmen. Hierfür werden das individuelle Humankapital der Frauen, ihre Werteorientierungen und individuelle berufliche Motivationen aus der Jugendzeit und im Erwachsenenalter herangezogen. Die analysierten Daten (Daten der LifE-Studie) repräsentieren eine Langzeitperspektive vom 16. bis zum 45. Lebensjahr der befragten Frauen. Zusammenfassend kann im Ergebnis gezeigt werden, dass ein Effekt familiärer Verpflichtungen auf Einkommensergebnisse bei Frauen im frühen und mittleren Erwachsenenalter als Zeiteffekt über die investierte Erwerbsarbeitszeit vermittelt wird. Die Relevanz privater Routinearbeiten für Berufserfolge von Frauen und insbesondere Müttern stellt somit eine Frage der Zeit dar. Weiterhin kann für individuelle Einflüsse auf Einkommen bei Frauen gezeigt werden, dass höhere zeitliche Investitionen in den Beruf von Frauen mit hohem Bildungsniveau als indirect-only-Mediation nur über die Umverteilung häuslicher Arbeiten erklärbar werden. Frauen sind demnach zwar Gewinnerinnen der Bildungsexpansion. Die Bildungsexpansion stellt jedoch auch die Geschichte der Entstehung eines Vereinbarkeitskonflikts für eben diese Frauen dar, weil die bis heute virulenten Beharrungskräfte hinsichtlich der Frauen zugeschriebenen familiären Verpflichtungen mit ihren gestiegenen beruflichen Erwartungen und Chancen kollidieren. Die Arbeit leistet in ihren Analyseresultaten einen wichtigen Beitrag zur Erklärung heterogener Investitionen von Frauen in den Beruf und ihrer Einkommensergebnisse aus dem Privaten heraus.
Im Rahmen der Dissertation wurden an Wässern und freien Gasen aus Thermalquellen sowie an weniger als 5 Millionen Jahre alten basischen Vulkaniten des zentralandinen Puna-Hochplateaus (NE-Argentinien) umfangreiche element- und isotopengeochemische Untersuchungen durchgeführt und die Edelgasgehalte und -isotopensignaturen in diesen Medien bestimmt. Damit soll ein Beitrag zum besseren Verständnis der jüngeren Subduktionsgeschichte im Bereich der südlichen Zentralanden geleistet, die Wechselwirkungen zwischen ozeanischer Unter- und kontinentaler Oberplatte sichtbar gemacht und die Edelgassystematik verbessert werden. Wie die Ergebnisse der Untersuchungen an Gasen aus den Thermalquellen der Puna-Region zeigen, ist der Anteil an Mantel-Helium in den Thermalquellen dieser Region mit bis zu 67 % wesentlich höher als in der westlich gelegenen vulkanisch aktiven Westkordillere und den anderen angrenzenden Gebieten. In einigen Quellen konnten sogar Anteile an Mantel-Neon nachgewiesen werden, was aufgrund von Überlagerungen mit Neon atmosphärischen und krustalen Ursprungs weltweit bisher nur vereinzelt gelungen ist. Für kontinentale Bereiche mit großer Krustendicke ist ein solch starker Mantelgasfluss äußerst ungewöhnlich und bedeutet, dass Mantelschmelzen bis in die Kruste aufgedrungen sind und tief reichende Wegsamkeiten existieren, so dass die Mantelgase aufsteigen können, ohne stark krustal beeinflusst zu werden. Dass im Bereich der Puna rezent Mantelmaterial in die Kruste aufsteigt, zu diesem Ergebnis kommen auch aktuelle seismologische Untersuchungen. Zudem wurden junge, vorwiegend monogenetische Basalte bis basaltische Andesite geochemisch auf ihre Haupt-, Neben- und Spurenbestandteile sowie ihre Gehalte an Seltenenerdenelementen hin untersucht. Auch wurden die Isotopenverhältnisse von Sr, Nd und Pb in den Gesteinen bestimmt und petrographisch-mineralogische Analysen der darin enthaltenen Olivine und Pyroxene durchgeführt. Wie die Resultate belegen, haben die Magmen bei ihrem Aufstieg durch die Erdkruste insbesondere Material aus der Oberkruste assimiliert und sind zudem durch Fluide aus der abtauchenden Platte beeinflusst worden. Damit konnte gezeigt werden, dass einfache geochemische Methoden allein nicht ausreichen, um die Mantelquelle der Magmen ermitteln oder Aussagen über die Asthenosphärendynamik in der Region machen zu können. Im Gegensatz dazu zeigen die Messungen der Edelgasisotopenverhältnisse in den Fluideinschlüssen der Olivine und Pyroxene, dass deren Edelgaszusammensetzung nicht durch Krustenkontamination beeinflusst wurde, weil die Magmen erst nach der Olivin- bzw. Pyroxen-Kristallisation Schmelzen aus der Oberkruste assimiliert haben. Darüber hinaus konnten durch die Edelgasisotopenmessungen die bisher höchsten magmatischen He- und Ne-Isotopenverhältnisse von ganz Südamerika nachgewiesen werden. Aus der unterschiedlichen Höhe der Messwerte ist zu schließen, dass die im Osten der Puna vorkommenden älteren Laven aus einem nichtkonvektiven (lithosphärischen) Mantel stammen, während die am vulkanischen Bogen und Westrand der Puna gelegenen jüngeren Laven, ihren Ursprung in einer konvektiven (asthenosphärischen) Mantelquelle haben. Zudem konnte gezeigt werden, dass der Mantelgasfluss in der Region in den letzten 5 Millionen Jahren stark zunahm und sich die Eruption von mantelstämmigen basischen Laven in dieser Zeit kontinuierlich in westliche Richtung zum aktiven Vulkanbogen hin verlagerte. Im daraus abgeleiteten Modell beruht dieser Prozess (1) auf einer an die Kontinentalverschiebung gekoppelten W-Drift des Kontinents und (2) auf einem mit der Versteilung der Unterplatte verbundenen Vordringen des subkontinentalen asthenosphärischen Mantels nach W, nach dem Ende der Subduktion des unterseeischen aseismischen Juan Fernández-Rückens in der Region. Zudem gibt es starke Argumente dafür, dass die asthenosphärischen Magmen aus einer fluidreichen Zone in 500 – 600 km Tiefe parallel zur subduzierten Platte aufsteigen und nicht, wie bisher angenommen, durch Schmelzbildung in Bereichen unter 200 km Tiefe, allein durch Entwässerung der abtauchenden Platte erzeugt werden. Zu diesem Resultat führt vor allem die Kombination der He-Isotopenverhältnisse mit Ergebnissen seismologischer Untersuchungen.
Die Anwendung eines Mikrosimulationsmodells als Instrument der wirtschaftswissenschaftlichen Forschung erfreut sich großer Beliebtheit. Die Verwendung dieses Modelltyps hat vor allem zwei Gründe. Zum einen sind die in den letzten Jahren extrem gesunkenen Kosten der Informationsverarbeitung ursächlich für die mittlerweile häufige Verwendung. Zum anderen besitzt diese Analyseform Eigenschaften, die kein anderes Instrument aufweist. Insbesondere für die Abschätzung der Verteilungswirkungen von Steuer- und Transferreformen ist die Mikrosimulation eine nahezu ideale Methode. Durch die Einbindung eines Nachfragesystems kann sowohl das Anwendungsgebiet eines Mikrosimulationsmodells erweitert als auch dessen potentielle Leistungsfähigkeit gesteigert werden. Die Arbeit hat im Wesentlichen die Beantwortung der Fragestellungen aus den folgenden zwei Fragenkomplexen zum Ziel: - Wann ist die Einbindung eines Nachfragesystems in Mikrosimulationsmodelle sinnvoll und wie kann ein solches System in das eigentliche Mikrosimulationsmodell integriert werden? - Welche Nachfragesysteme können aus den in Deutschland in Querschnittsform vorhandenen Mikrodatensätzen geschätzt werden und welche theoretischen Eigenschaften besitzen diese Systeme bzw. deren in einem zweistufigen Budgetierungsprozess einsetzbare Kombinationen?
Moderne Softwaresysteme sind komplexe Gebilde, welche häufig im Verbund mit anderen technischen und betriebswirtschaftlichen Systemen eingesetzt werden. Für die Hersteller solcher Systeme stellt es oft eine große Herausforderung dar, den oft weit reichenden Anforderungen bezüglich der Anpassbarkeit solcher Systeme gerecht zu werden. Zur Erfüllung dieser Anforderungen hat es sich vielfach bewährt, eine virtuelle Maschine in das betreffende System zu integrieren. Die Dissertation richtet sich insbesondere an Personen, die vor der Aufgabe der Integration virtueller Maschinen in bestehende Systeme stehen und zielt darauf ab, solche für die Entscheidung über Integrationsfragen wichtigen Zusammenhänge klar darzustellen. Typischerweise treten bei der Integration einer virtuellen Maschine in ein System eine Reihe unterschiedlicher Problemstellungen auf. Da diese Problemstellungen oft eng miteinander verzahnt sind, ist eine isolierte Betrachtung meist nicht sinnvoll. Daher werden die Problemstellungen anhand eines zentral gewählten, sehr umfangreichen Beispiels aus der industriellen Praxis eingeführt. Dieses Beispiel hat die Integration der "Java Virtual Machine" in den SAP R/3 Application Server zum Gegenstand. Im Anschluss an dieses Praxisbeispiel wird die Diskussion der Integrationsproblematik unter Bezug auf eine Auswahl weiterer, in der Literatur beschriebener Integrationsbeispiele vertieft. Das Hauptproblem bei der Behandlung der Integrationsproblematik bestand darin, dass die vorgefundenen Beschreibungen, der als Beispiel herangezogenen Systeme, nur bedingt als Basis für die Auseinandersetzung mit der Integrationsproblematik geeignet waren. Zur Schaffung einer verwertbaren Diskussionsgrundlage war es daher erforderlich, eine homogene, durchgängige Modellierung dieser Systeme vorzunehmen. Die Modellierung der Systeme erfolgte dabei unter Verwendung der "Fundamental Modeling Concepts (FMC)". Die erstellten Modelle sowie die auf Basis dieser Modelle durchgeführte Gegenüberstellung der unterschiedlichen Ansätze zur LÖsung typischer Integrationsprobleme bilden den Hauptbeitrag der Dissertation. Im Zusammenhang mit der Integration virtueller Maschinen in bestehende Systeme besteht häufig der Bedarf, zeitgleich mehrere "Programme" durch die integrierte virtuelle Maschine ausführen zu lassen. Angesichts der Konstruktionsmerkmale vieler heute verbreiteter virtueller Maschinen stellt die Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" eine große Herausforderung dar. Die Darstellung des Spektrums an Maßnahmen zur Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" bildet einen zweiten wesentlichen Beitrag der Dissertation.
In der vorliegenden Arbeit werden die Eigenschaften geschlossener fluider Membranen, sogenannter Vesikeln, bei endlichen Temperaturen untersucht. Dies beinhaltet Betrachtungen zur Form freier Vesikeln, eine Untersuchung des Adhäsionsverhaltens von Vesikeln an planaren Substraten sowie eine Untersuchung der Eigenschaften fluider Vesikeln in eingeschränkten Geometrien. Diese Untersuchungen fanden mit Hilfe von Monte-Carlo-Simulationen einer triangulierten Vesikeloberfläche statt. Die statistischen Eigenschaften der fluktuierenden fluiden Vesikeln wurden zum Teil mittels Freier-Energie-Profile analysiert. In diesem Zusammenhang wurde eine neuartige Histogrammethode entwickelt.<BR> Die Form für eine freie fluide Vesikel mit frei veränderlichem Volumen, die das Konfigurationsenergie-Funktional minimiert, ist im Falle verschwindender Temperatur eine Kugel. Mit Hilfe von Monte-Carlo-Simulationen sowie einem analytisch behandelbaren Modellsystem konnte gezeigt werden, daß sich dieses Ergebnis nicht auf endliche Temperaturen verallgemeinern lässt und statt dessen leicht prolate und oblate Vesikelformen gegenüber der Kugelgestalt überwiegen. Dabei ist die Wahrscheinlichkeit für eine prolate Form ein wenig gröoßer als für eine oblate. Diese spontane Asphärizität ist entropischen Ursprungs und tritt nicht bei zweidimensionalen Vesikeln auf. Durch osmotische Drücke in der Vesikel, die größer sind als in der umgebenden Flüssigkeit, lässt sich die Asphärizität reduzieren oder sogar kompensieren. Die Übergänge zwischen den beobachteten prolaten und oblaten Formen erfolgen im Bereich von Millisekunden in Abwesenheit osmotisch aktiver Partikel. Bei Vorhandensein derartiger Partikel ergeben sich Übergangszeiten im Bereich von Sekunden. Im Rahmen der Untersuchung des Adhäsionsverhaltens fluider Vesikeln an planaren, homogenen Substraten konnte mit Hilfe von Monte-Carlo-Simulationen festgestellt werden, dass die Eigenschaften der Kontaktfläche der Vesikeln stark davon abhängen, welche Kräfte den Kontakt bewirken. Für eine dominierende attraktive Wechselwirkung zwischen Substrat und Vesikelmembran sowie im Falle eines Massendichteunterschieds der Flüssigkeiten innerhalb und außerhalb der Vesikel, der die Vesikel auf das Substrat sinken lässt, fndet man innerhalb der Kontakt ache eine ortsunabhangige Verteilung des Abstands zwischen Vesikelmembran und Substrat. Drückt die Vesikel ohne Berücksichtigung osmotischer Effekte auf Grund einer Differenz der Massendichten der Membran und der umgebenden Flüssigkeit gegen das Substrat, so erhält man eine Abstandsverteilung zwischen Vesikelmembran und Substrat, die mit dem Abstand vom Rand der Kontaktfläche variiert. Dieser Effekt ist zudem temperaturabhängig. Ferner wurde die Adhäsion fluider Vesikeln an chemisch strukturierten planaren Substraten untersucht. Durch das Wechselspiel von entropischen Effekten und Konfigurationsenergien entsteht eine komplexe Abhängigkeit der Vesikelform von Biegesteifigkeit, osmotischen Bedingungen und der Geometrie der attraktiven Domänen. Für die Bestimmung der Biegesteifigkeit der Vesikelmembranen liefern die existierenden Verfahren stark voneinander abweichende Ergebnisse. In der vorliegenden Arbeit konnte mittels Monte-Carlo-Simulationen zur Bestimmung der Biegesteifigkeit anhand des Mikropipettenverfahrens von Evans gezeigt werden, dass dieses Verfahren die a priori für die Simulation vorgegebene Biegesteifigkeit im wesentlichen reproduzieren kann. Im Hinblick auf medizinisch-pharmazeutische Anwendungen ist der Durchgang fluider Vesikeln durch enge Poren relevant. In Monte-Carlo-Simulationen konnte gezeigt werden, dass ein spontaner Transport der Vesikel durch ein Konzentrationsgefälle osmotisch aktiver Substanzen, das den physiologischen Bedingungen entspricht, induziert werden kann. Es konnten die hierfür notwendigen osmotischen Bedingungen sowie die charakteristischen Zeitskalen abgeschätzt werden. Im realen Experiment sind Eindringzeiten in eine enge Pore im Bereich weniger Minuten zu erwarten. Ferner konnte beobachtet werden, dass bei Vesikeln mit einer homogenen, positiven spontanen Krümmung Deformationen hin zu prolaten Formen leichter erfolgen als bei Vesikeln ohne spontane Krümmung. Mit diesem Effekt ist eine Verringerung der Energiebarriere für das Eindringen in eine Pore verbunden, deren Radius nur wenig kleiner als der Vesikelradius ist.
Understanding stars, their magnetic activity phenomena and the underlying dynamo action is the foundation for understanding 'life, the universe and everything' - as stellar magnetic fields play a fundamental role for star and planet formation and for the terrestrial atmosphere and climate. Starspots are the fingerprints of magnetic field lines and thereby the most important sign of activity in a star's photosphere. However, they cannot be observed directly, as it is not (yet) possible to spacially resolve the surfaces of even the nearest neighbouring stars. Therefore, an indirect approach called 'Doppler imaging' is applied, which allows to reconstruct the surface spot distribution on rapidly rotating, active stars. In this work, data from 11 years of continuous spectroscopic observations of the active binary star EI Eridani are reduced and analysed. 34 Doppler maps are obtained and the problem of how to parameterise the information content of Doppler maps is discussed. Three approaches for parameter extraction are introduced and applied to all maps: average temperature, separated for several latitude bands; fractional spottedness; and, for the analysis of structural temperature distribution, longitudinal and latitudinal spot-occurrence functions. The resulting values do not show a distinct correlation with the proposed activity cycle as seen from photometric long-term observations, thereby suggesting that the photometric activity cycle is not accompanied by a spot cycle as seen on the Sun. The general morphology of the spot pattern on EI Eri remains persistent for the whole period of 11 years. In addition, a detailed parameter study is performed. Improved orbital parameters suggest that EI Eri might be complemented by a third star in a wide orbit of about 19 years. Preliminary differential rotation measurements are carried out, indicating an anti-solar orientation.
Efficiently managing large state is a key challenge for data management systems. Traditionally, state is split into fast but volatile state in memory for processing and persistent but slow state on secondary storage for durability. Persistent memory (PMem), as a new technology in the storage hierarchy, blurs the lines between these states by offering both byte-addressability and low latency like DRAM as well persistence like secondary storage. These characteristics have the potential to cause a major performance shift in database systems.
Driven by the potential impact that PMem has on data management systems, in this thesis we explore their use of PMem. We first evaluate the performance of real PMem hardware in the form of Intel Optane in a wide range of setups. To this end, we propose PerMA-Bench, a configurable benchmark framework that allows users to evaluate the performance of customizable database-related PMem access. Based on experimental results obtained with PerMA-Bench, we discuss findings and identify general and implementation-specific aspects that influence PMem performance and should be considered in future work to improve PMem-aware designs. We then propose Viper, a hybrid PMem-DRAM key-value store. Based on PMem-aware access patterns, we show how to leverage PMem and DRAM efficiently to design a key database component. Our evaluation shows that Viper outperforms existing key-value stores by 4–18x for inserts while offering full data persistence and achieving similar or better lookup performance. Next, we show which changes must be made to integrate PMem components into larger systems. By the example of stream processing engines, we highlight limitations of current designs and propose a prototype engine that overcomes these limitations. This allows our prototype to fully leverage PMem's performance for its internal state management. Finally, in light of Optane's discontinuation, we discuss how insights from PMem research can be transferred to future multi-tier memory setups by the example of Compute Express Link (CXL).
Overall, we show that PMem offers high performance for state management, bridging the gap between fast but volatile DRAM and persistent but slow secondary storage. Although Optane was discontinued, new memory technologies are continuously emerging in various forms and we outline how novel designs for them can build on insights from existing PMem research.
Duplicate detection describes the process of finding multiple representations of the same real-world entity in the absence of a unique identifier, and has many application areas, such as customer relationship management, genealogy and social sciences, or online shopping. Due to the increasing amount of data in recent years, the problem has become even more challenging on the one hand, but has led to a renaissance in duplicate detection research on the other hand.
This thesis examines the effects and opportunities of transitive relationships on the duplicate detection process. Transitivity implies that if record pairs ⟨ri,rj⟩ and ⟨rj,rk⟩ are classified as duplicates, then also record pair ⟨ri,rk⟩ has to be a duplicate. However, this reasoning might contradict with the pairwise classification, which is usually based on the similarity of objects. An essential property of similarity, in contrast to equivalence, is that similarity is not necessarily transitive.
First, we experimentally evaluate the effect of an increasing data volume on the threshold selection to classify whether a record pair is a duplicate or non-duplicate. Our experiments show that independently of the pair selection algorithm and the used similarity measure, selecting a suitable threshold becomes more difficult with an increasing number of records due to an increased probability of adding a false duplicate to an existing cluster. Thus, the best threshold changes with the dataset size, and a good threshold for a small (possibly sampled) dataset is not necessarily a good threshold for a larger (possibly complete) dataset. As data grows over time, earlier selected thresholds are no longer a suitable choice, and the problem becomes worse for datasets with larger clusters.
Second, we present with the Duplicate Count Strategy (DCS) and its enhancement DCS++ two alternatives to the standard Sorted Neighborhood Method (SNM) for the selection of candidate record pairs. DCS adapts SNMs window size based on the number of detected duplicates and DCS++ uses transitive dependencies to save complex comparisons for finding duplicates in larger clusters. We prove that with a proper (domain- and data-independent!) threshold, DCS++ is more efficient than SNM without loss of effectiveness.
Third, we tackle the problem of contradicting pairwise classifications. Usually, the transitive closure is used for pairwise classifications to obtain a transitively closed result set. However, the transitive closure disregards negative classifications. We present three new and several existing clustering algorithms and experimentally evaluate them on various datasets and under various algorithm configurations. The results show that the commonly used transitive closure is inferior to most other clustering algorithms, especially for the precision of results. In scenarios with larger clusters, our proposed EMCC algorithm is, together with Markov Clustering, the best performing clustering approach for duplicate detection, although its runtime is longer than Markov Clustering due to the subexponential time complexity. EMCC especially outperforms Markov Clustering regarding the precision of the results and additionally has the advantage that it can also be used in scenarios where edge weights are not available.
Compound values are not universally supported in virtual machine (VM)-based programming systems and languages. However, providing data structures with value characteristics can be beneficial. On one hand, programming systems and languages can adequately represent physical quantities with compound values and avoid inconsistencies, for example, in representation of large numbers. On the other hand, just-in-time (JIT) compilers, which are often found in VMs, can rely on the fact that compound values are immutable, which is an important property in optimizing programs. Considering this, compound values have an optimization potential that can be put to use by implementing them in VMs in a way that is efficient in memory usage and execution time. Yet, optimized compound values in VMs face certain challenges: to maintain consistency, it should not be observable by the program whether compound values are represented in an optimized way by a VM; an optimization should take into account, that the usage of compound values can exhibit certain patterns at run-time; and that necessary value-incompatible properties due to implementation restrictions should be reduced.
We propose a technique to detect and compress common patterns of compound value usage at run-time to improve memory usage and execution speed. Our approach identifies patterns of frequent compound value references and introduces abbreviated forms for them. Thus, it is possible to store multiple inter-referenced compound values in an inlined memory representation, reducing the overhead of metadata and object references. We extend our approach by a notion of limited mutability, using cells that act as barriers for our approach and provide a location for shared, mutable access with the possibility of type specialization. We devise an extension to our approach that allows us to express automatic unboxing of boxed primitive data types in terms of our initial technique. We show that our approach is versatile enough to express another optimization technique that relies on values, such as Booleans, that are unique throughout a programming system. Furthermore, we demonstrate how to re-use learned usage patterns and optimizations across program runs, thus reducing the performance impact of pattern recognition.
We show in a best-case prototype that the implementation of our approach is feasible and can also be applied to general purpose programming systems, namely implementations of the Racket language and Squeak/Smalltalk. In several micro-benchmarks, we found that our approach can effectively reduce memory consumption and improve execution speed.
Effektivität frühzeitiger Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten
(2016)
Die vorliegende Studie beschäftigt sich mit der Förderung der Lese- und Schreibkompetenz in der Anfangsphase des Schriftspracherwerbs. Ziel der Untersuchung ist die Erprobung und Evaluierung frühzeitiger, diagnosegeleiteter Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten. Im Unterschied zu vielen Studien in diesem Bereich werden alle Maßnahmen unter realen schulischen Bedingungen im Rahmen des Erstlese- und Schreibunterrichts durch die Klassenlehrer selbst durchgeführt, wobei diese von der Autorin unterstützt und begleitet werden. Förder- und Prozessdiagnose sowie Elemente diagnosegeleiteter Förderung werden aus Theorien und Forschungslage abgeleitet und zu einem Interventionsset verbunden. Die Effektivität der evidenzbasierten Maßnahmen wird durch Parallelgruppenvergleiche überprüft.
An der empirischen Untersuchung nahmen insgesamt 25 Schulklassen mit 560 Erstklässlern teil, geteilt in Versuchs- und Kontrollgruppe. Mit der Eingangsdiagnose am Schulbeginn wurden Voraussetzungen für den Schriftspracherwerb erhoben und mit der Evaluierungsdiagnose am Ende der ersten Schulstufe entwicklungsadäquate schriftsprachliche Kompetenzen auf der Wortebene überprüft. Zusätzlich erfasst wurden internale und externale Einflussfaktoren, deren Wirkung in der statistischen Auswertung berücksichtigt wurde. Alle Datenerhebungen wurden in Versuchs- und Kontrollgruppe durchgeführt, während die evidenzbasierten Treatments nur in der Versuchsgruppe stattfanden.
Die Auswertung bestätigt mit signifikanten Ergebnissen den engen Zusammenhang zwischen der Phonologischen Bewusstheit zu Beginn des Schriftspracherwerbs und der Lese- und Rechtschreibfähigkeit am Ende der ersten Schulstufe sowie zwischen Familiärer Literalität und Lesefertigkeit. Schriftsprachliche Vorkenntnisse weisen eine Tendenz zur Signifikanz hinsichtlich ihrer positiven Wirkung auf die Basale Lesefertigkeit auf. Eine höchst signifikante positive Wirkung auf die Basale Lesefertigkeit zeigt die Druckschrift als Ausgangsschrift.
Die Ergebnisse deuten auf eine Überlegenheit vorschulischer präliteraler Fertigkeiten hinsichtlich ihrer Wirkung auf die Lese- und Rechtschreibfertigkeit am Ende der ersten Schulstufe gegenüber Fördermaßnahmen unter realen schulischen Bedingungen hin. Die positive Wirkung einer unverbundenen Ausgangsschrift auf den Leseerwerb betont die Wichtigkeit der Wahl der Ausgangsschrift. Im frühen Schriftspracherwerb sollte die Druckschrift für das Lesen und Schreiben verwendet werden.
Effekte einer reduzierten Dosis von Pflanzenschutzmitteln auf tritrophische Systeme im Ackerbau
(2007)
Chemische Pflanzenschutzmittel (PSM) bekämpfen nicht nur Schadorganismen, sondern haben aufgrund ihrer hohen Toxizität auch negative Auswirkungen auf Nicht-Ziel-Organismen. Die Fragestellung der Arbeit war es, ob mit reduzierten Anwendungen von PSM ihr Gefährdungspotenzial für Prädatoren von Schädlingen verringert und dadurch das Potenzial der natürlichen Schädlingsregulation erhöht wird. In dreijährigen Freilanduntersuchungen wurden die Effekte einer dauerhaft reduzierten Dosis von chemischen PSM auf die ökologische Situation im Ackerbau anhand von drei Fallbeispielen in einem konventionell bewirtschafteten Betrieb in der Magdeburger Börde untersucht. Drei über 15 ha große Felder wurden dauerhaft in zwei Teilflächen geteilt, wobei eine Teilfläche mit der vom Landwirt gewünschten Dosis (100 %-Variante) und die andere mit jeweils genau der halben Dosis (50 %-Variante) behandelt wurde. Mittels dieser Halbfelder-Vergleiche wurden die ökologischen Situationen bezüglich des Auftretens von Blattläusen und ihren Prädatoren sowie Unkräutern vor und nach der jeweiligen PSM-Behandlung aufgenommen und ökonomische Parameter ermittelt. Ergänzend wurden im Labor Modellgefäßversuche mit abgestuften Dosierungen von Insektiziden und Herbiziden durchgeführt. Die Insektizidbehandlung übte einen großen Einfluss auf die Blattläuse und ihre Prädatoren aus, während alle vorherigen Herbizid- und Fungizidbehandlungen zu keinen Unterschieden in der Abundanz der Blattläuse und ihrer Prädatoren zwischen beiden Varianten hervorriefen. Die reduzierte Insektiziddosis führte zu keiner guten Blattlauskontrolle, während die Abundanz der blattlausspezifischen Prädatoren positiv beeinflusst wurde. Die Araneae reagierten auf die reduzierte Dosis mit einer teilweise erhöhten Aktivitätsdichte und Artendiversität. Dagegen waren diesbezüglich keine eindeutigen Effekte auf die Carabidae festzustellen. Es traten keine strukturellen Veränderungen in Form einer erhöhten Unkrautdichte durch die reduzierte Herbiziddosis auf. Erste Hinweise auf mögliche langfristige Auswirkungen einer dauerhaft reduzierten PSM-Anwendung konnten nur bei der Verunkrautung und der Aktivitätsdichte der Araneae beobachtet werden. Blattläuse profitierten demnach mehr von der reduzierten Anwendung der PSM als ihre Prädatoren, so dass zwar das Potenzial der natürlichen Blattlausregulation erhöht, die Selbstregulation aber nicht verbessert wurde. Die geschonten Prädatoren schafften es nicht, die vorhandene Restpopulation der Blattläuse zu reduzieren. Dagegen konnte in den Laborversuchen gezeigt werden, das schon bei deutlich reduzierten Insektiziddosen eine ausreichende Blattlausbekämpfung möglich ist und eine weitere Einsparung durch Ausnutzung der natürlichen Regulation durch Prädatoren erreicht werden kann. Allerdings ist eine Übertragung der Ergebnisse von Laboruntersuchungen auf Freilandbedingungen schwierig. Es kann zu einer Überschätzung der Prädatorleistung führen.
In der randomisierten, multizentrischen DASH-Studie (Dietary Approaches to Stop Hy-pertension), die unter kontrollierten Bedingungen stattfand, führte eine fettreduzierte Mischkost, reich an Obst, Gemüse und Milchprodukten, bei Borderline-Hypertonikern zu einer signifikanten Blutdrucksenkung. Während der Studienphase wurden Körpermasse, Natrium-Aufnahme sowie Alkoholzufuhr aufgrund der bekannten Einflussnahme auf den Blutdruck konstant gehalten. In der eigenen Pilot-Studie sollte untersucht werden, ob das Ergebnis der DASH-Studie (i) mit deutschen Hypertonikern und (ii) unter habituellen Ernährungs- und Lebensbedingungen mit regelmäßig durchgeführter Ernährungsberatung und ad libitum Verzehr anstelle des streng kontrollierten Studienansatzes bestätigt werden kann. Eine Konstanz der Körpermasse, der Natrium-Urinausscheidung (unter diesem Studienansatz valider als die Aufnahme) und des Alkoholkonsums wurde vorausgesetzt. Die Studienpopulation setzte sich aus 53 übergewichtigen Probanden mit einer nicht medikamentös therapierten Borderline-Hypertonie und ohne Stoffwechselerkrankungen zusammen. Die Studienteilnehmer wurden randomisiert entweder der Idealgruppe mit einer fettarmen Kost reich an Milchprodukten, Obst und Gemüse (ähnlich der DASH-Idealgruppe) oder der Kontrollgruppe mit habitueller Ernährungsweise zugeteilt. Über einen Zeitraum von fünf Wochen wurde den Probanden etwa 50% ihres täglichen Lebensmittelbedarfes entsprechend ihrer Gruppenzugehörigkeit kostenfrei zur Verfügung gestellt. Gelegenheitsblutdruckmessungen und 24h-Blutdruckmessungen, Ernährungs- und Aktivitätsprotokolle, Blut- und Urinproben sowie anthropometrische Messungen wurden vor, während und fünf Wochen nach der Interventionsphase durchgeführt. Die Ergebnisse zeigen, dass in der Idealgruppe keine signifikante Blutdrucksenkung beobachtet werden konnte. Dies lässt sich durch die Tatsache erklären, dass die Lebens-mittel- und Nährstoffaufnahme der deutschen Kontrollgruppe eher der amerikanischen Idealgruppe entsprach. In der Pilot-Studie waren die Unterschiede in der Nährstoffzufuhr zwischen den beiden Gruppen viel geringer als in der DASH-Studie; für eine blutdrucksenkende Ernährungsumstellung bestand somit nur ein geringer Spielraum. Eine weitere Erklärung besteht in der unterschiedlichen Zusammensetzung der Studienpopulation. Bei DASH wurden vorwiegend farbige Probanden (40% höhere Hypertonieprävalenz) untersucht. Die Studienergebnisse lassen also den Schluss zu, dass Ernährungs- und Lebensstilgewohnheiten sowie der genetische Hintergrund der entsprechenden Bevölkerungsgruppe bei der Formulierung von nährstoff- oder lebensmittelbezogenen Empfehlungen zur Senkung des Bluthochdruckes Berücksichtigung finden müssen.
In the arable soil landscape of hummocky ground moraines, an erosion-affected spatial differentiation of soils can be observed. Man-made erosion leads to soil profile modifications along slopes with changed solum thickness and modified properties of soil horizons due to water erosion in combination with tillage operations. Soil erosion creates, thereby, spatial patterns of soil properties (e.g., texture and organic matter content) and differences in crop development. However, little is known about the manner in which water fluxes are affected by soil-crop interactions depending on contrasting properties of differently-developed soil horizons and how water fluxes influence the carbon transport in an eroded landscape. To identify such feedbacks between erosion-induced soil profile modifications and the 1D-water and solute balance, high-precision weighing lysimeters equipped with a wide range of sensor technique were filled with undisturbed soil monoliths that differed in the degree of past soil erosion. Furthermore, lysimeter effluent concentrations were analyzed for dissolved carbon fractions in bi-weekly intervals.
The water balance components measured by high precision lysimeters varied from the most eroded to the less eroded monolith up to 83 % (deep drainage) primarily caused due to varying amounts of precipitation and evapotranspiration for a 3-years period. Here, interactions between crop development and contrasting rainfall interception by above ground biomass could explain differences in water balance components. Concentrations of dissolved carbon in soil water samples were relatively constant in time, suggesting carbon leaching was mainly affected by water fluxes in this observation period. For the lysimeter-based water balance analysis, a filtering scheme was developed considering temporal autocorrelation. The minute-based autocorrelation analysis of mass changes from lysimeter time series revealed characteristic autocorrelation lengths ranging from 23 to 76 minutes. Thereby, temporal autocorrelation provided an optimal approximation of precipitation quantities. However, the high temporal resolution in lysimeter time series is restricted by the lengths of autocorrelation.
Erosion-induced but also gradual changes in soil properties were reflected by dynamics of soil water retention properties in the lysimeter soils. Short-term and long-term hysteretic water retention data suggested seasonal wettability problems of soils increasingly limited rewetting of previously dried pore regions. Differences in water retention were assigned to soil tillage operations and the erosion history at different slope positions. The threedimensional spatial pattern of soil types that result from erosional soil profile modifications were also reflected in differences of crop root development at different landscape positions. Contrasting root densities revealed positive relations of root and aboveground plant characteristics. Differences in the spatially-distributed root growth between different eroded soil types provided indications that root development was affected by the erosion-induced soil evolution processes.
Overall, the current thesis corroborated the hypothesis that erosion-induced soil profile modifications affect the soil water balance, carbon leaching and soil hydraulic properties, but also the crop root system is influenced by erosion-induced spatial patterns of soil properties in the arable hummocky post glacial soil landscape. The results will help to improve model predictions of water and solute movement in arable soils and to understand interactions between soil erosion and carbon pathways regarding sink-or-source terms in landscapes.
Difficulties with object relative clauses (ORC), as compared to subject relative clauses (SR), are widely attested across different languages, both in adults and in children. This SR-ORC asymmetry is reduced, or even eliminated, when the embedded constituent in the ORC is a pronoun, rather than a lexical noun phrase. The studies included in this thesis were designed to explore under what circumstances the pronoun facilitation occurs; whether all pronouns have the same effect; whether SRs are also affected by embedded pronouns; whether children perform like adults on such structures; and whether performance is related to cognitive abilities such as memory or grammatical knowledge. Several theoretical approaches that explain the pronoun facilitation in relative clauses are evaluated. The experimental data have been collected in three languages–German, Italian and Hebrew–stemming from both children and adults.
In the German study (Chapter 2), ORCs with embedded 1st- or 3rd-person pronouns are compared to ORCs with an embedded lexical noun phrase. Eye-movement data from 5-year-old children show that the 1st-person pronoun facilitates processing, but not the 3rd-person pronoun. Moreover, children’s performance is modulated by additive effects of their memory and grammatical skills. In the Italian study (Chapter 3), the 1st-person pronoun advantage over the 3rd-person pronoun is tested in ORCs and SRs that display a similar word order. Eye-movement data from 5-year-olds and adult controls and reading times data from adults are pitted against the outcome of a corpus analysis, showing that the 1st-/3rd-person pronoun asymmetry emerges in the two relative clause types to an equal extent. In the Hebrew study (Chapter 4), the goal is to test the effect of a special kind of pronoun–a non-referential arbitrary subject pronoun–on ORC comprehension, in the light of potential confounds in previous studies that used this pronoun. Data from a referent-identification task with 4- to 5-year-olds indicate that, when the experimental material is controlled, the non-referential pronoun does not necessarily facilitate ORC comprehension. Importantly, however, children have even more difficulties when the embedded constituent is a referential pronoun. The non-referentiality / referentiality asymmetry is emphasized by the relation between children’s performance on the experimental task and their memory skills.
Together, the data presented in this thesis indicate that sentence processing is not only driven by structural (or syntactic) factors, but also by discourse-related ones, like pronouns’ referential properties or their discourse accessibility mechanism, which is defined as the level of ease or difficulty with which referents of pronouns are identified and retrieved from the discourse model. Although independent in essence, these structural and discourse factors can in some cases interact in a way that affects sentence processing. Moreover, both types of factors appear to be strongly related to memory. The data also support the idea that, from early on, children are sensitive to the same factors that affect adults’ sentence processing, and that the processing strategies of both populations are qualitatively similar.
In sum, this thesis suggests that a comprehensive theory of human sentence processing needs to account for effects that are due to both structural and discourse-related factors, which operate as a function of memory capacity.
This is a cumulative dissertation comprising three original studies (one published, one in revision, one submitted; Effective December 2017) investigating how reptile species in arid Australia respond to various climatic parameters at different spatial scales and analysing the two potential main underlying mechanisms: thermoregulatory behaviour and species interactions. This dissertation combines extensive individual-based field data across trophic levels, selected field experiments, statistical analyses, and predictive modelling techniques. Mechanisms and processes detected in this dissertation can now be used to predict potential future changes in the community of arid-zone lizards. This knowledge will help improving our fundamental understanding of the consequences of global change and thereby prevent biodiversity loss in a vulnerable ecosystem.