Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (6469) (entfernen)
Sprache
- Deutsch (3265)
- Englisch (3143)
- Spanisch (27)
- Französisch (17)
- Italienisch (7)
- Hebräisch (6)
- Mehrsprachig (3)
- Russisch (1)
Schlagworte
- climate change (55)
- Klimawandel (54)
- Modellierung (36)
- Nanopartikel (28)
- machine learning (22)
- Fernerkundung (20)
- Spracherwerb (19)
- Synchronisation (19)
- Deutschland (18)
- remote sensing (18)
Institut
- Institut für Biochemie und Biologie (1036)
- Institut für Physik und Astronomie (778)
- Institut für Chemie (676)
- Institut für Geowissenschaften (504)
- Wirtschaftswissenschaften (407)
- Institut für Ernährungswissenschaft (278)
- Öffentliches Recht (251)
- Bürgerliches Recht (220)
- Historisches Institut (213)
- Institut für Informatik und Computational Science (204)
Der Franchisevertrag
(2015)
Spectral fingerprinting
(2015)
Current research on runoff and erosion processes, as well as an increasing demand for sustainable watershed management emphasize the need for an improved understanding of sediment dynamics. This involves the accurate assessment of erosion rates and sediment transfer, yield and origin. A variety of methods exist to capture these processes at the catchment scale. Among these, sediment fingerprinting, a technique to trace back the origin of sediment, has attracted increasing attention by the scientific community in recent years. It is a two-step procedure, based on the fundamental assumptions that potential sources of sediment can be reliably discriminated based on a set of characteristic ‘fingerprint’ properties, and that a comparison of source and sediment fingerprints allows to quantify the relative contribution of each source.
This thesis aims at further assessing the potential of spectroscopy to assist and improve the sediment fingerprinting technique. Specifically, this work focuses on (1) whether potential sediment sources can be reliably identified based on spectral features (‘fingerprints’), whether (2) these spectral fingerprints permit the quantification of relative source contribution, and whether (3) in situ derived source information is sufficient for this purpose. Furthermore, sediment fingerprinting using spectral information is applied in a study catchment to (4) identify major sources and observe how relative source contributions change between and within individual flood events. And finally, (5) spectral fingerprinting results are compared and combined with simultaneous sediment flux measurements to study sediment origin, transport and storage behaviour.
For the sediment fingerprinting approach, soil samples were collected from potential sediment sources within the Isábena catchment, a meso-scale basin in the central Spanish Pyrenees. Undisturbed samples of the upper soil layer were measured in situ using an ASD spectroradiometer and subsequently sampled for measurements in the laboratory. Suspended sediment was sampled automatically by means of ISCO samplers at the catchment as well as at the five major subcatchment outlets during flood events, and stored fine sediment from the channel bed was collected from 14 cross-sections along the main river. Artificial mixtures of known contributions were produced from source soil samples. Then, all source, sediment and mixture samples were dried and spectrally measured in the laboratory. Subsequently, colour coefficients and physically based features with relation to organic carbon, iron oxide, clay content and carbonate, were calculated from all in situ and laboratory spectra. Spectral parameters passing a number of prerequisite tests were submitted to principal component analyses to study natural clustering of samples, discriminant function analyses to observe source differentiation accuracy, and a mixing model for source contribution assessment. In addition, annual as well as flood event based suspended sediment fluxes from the catchment and its subcatchments were calculated from rainfall, water discharge and suspended sediment concentration measurements using rating curves and Quantile Regression Forests. Results of sediment flux monitoring were interpreted individually with respect to storage behaviour, compared to fingerprinting source ascriptions and combined with fingerprinting to assess their joint explanatory potential.
In response to the key questions of this work, (1) three source types (land use) and five spatial sources (subcatchments) could be reliably discriminated based on spectral fingerprints. The artificial mixture experiment revealed that while (2) laboratory parameters permitted source contribution assessment, (3) the use of in situ derived information was insufficient. Apparently, high discrimination accuracy does not necessarily imply good quantification results. When applied to suspended sediment samples of the catchment outlet, the spectral fingerprinting approach was able to (4) quantify the major sediment sources: badlands and the Villacarli subcatchment, respectively, were identified as main contributors, which is consistent with field observations and previous studies. Thereby, source contribution was found to vary both, within and between individual flood events. Also sediment flux was found to vary considerably, annually as well as seasonally and on flood event base. Storage was confirmed to play an important role in the sediment dynamics of the studied catchment, whereas floods with lower total sediment yield tend to deposit and floods with higher yield rather remove material from the channel bed. Finally, a comparison of flux measurements with fingerprinting results highlighted the fact that (5) immediate transport from sources to the catchment outlet cannot be assumed. A combination of the two methods revealed different aspects of sediment dynamics that none of the techniques could have uncovered individually.
In summary, spectral properties provide a fast, non-destructive, and cost-efficient means to discriminate and quantify sediment sources, whereas, unfortunately, straight-forward in situ collected source information is insufficient for the approach. Mixture modelling using artificial mixtures permits valuable insights into the capabilities and limitations of the method and similar experiments are strongly recommended to be performed in the future. Furthermore, a combination of techniques such as e.g. (spectral) sediment fingerprinting and sediment flux monitoring can provide comprehensive understanding of sediment dynamics.
Microsaccades
(2015)
The first thing we do upon waking is open our eyes. Rotating them in our eye sockets, we scan our surroundings and collect the information into a picture in our head. Eye movements can be split into saccades and fixational eye movements, which occur when we attempt to fixate our gaze. The latter consists of microsaccades, drift and tremor. Before we even lift our eye lids, eye movements – such as saccades and microsaccades that let the eyes jump from one to another position – have partially been prepared in the brain stem. Saccades and microsaccades are often assumed to be generated by the same mechanisms. But how saccades and microsaccades can be classified according to shape has not yet been reported in a statistical manner. Research has put more effort into the investigations of microsaccades’ properties and generation only since the last decade. Consequently, we are only beginning to understand the dynamic processes governing microsaccadic eye movements. Within this thesis, the dynamics governing the generation of microsaccades is assessed and the development of a model for the underlying processes. Eye movement trajectories from different experiments are used, recorded with a video-based eye tracking technique, and a novel method is proposed for the scale-invariant detection of saccades (events of large amplitude) and microsaccades (events of small amplitude). Using a time-frequency approach, the method is examined with different experiments and validated against simulated data. A shape model is suggested that allows for a simple estimation of saccade- and microsaccade related properties. For sequences of microsaccades, in this thesis a time-dynamic Markov model is proposed, with a memory horizon that changes over time and which can best describe sequences of microsaccades.
Intuitively, it is clear that neural processes and eye movements in reading are closely connected, but only few studies have investigated both signals simultaneously. Instead, the usual approach is to record them in separate experiments and to subsequently consolidate the results. However, studies using this approach have shown that it is feasible to coregister eye movements and EEG in natural reading and contributed greatly to the understanding of oculomotor processes in reading. The present thesis builds upon that work, assessing to what extent coregistration can be helpful for sentence processing research.
In the first study, we explore how well coregistration is suited to study subtle effects common to psycholinguistic experiments by investigating the effect of distance on dependency resolution. The results demonstrate that researchers must improve the signal-to-noise ratio to uncover more subdued effects in coregistration. In the second study, we compare oscillatory responses in different presentation modes. Using robust effects from world knowledge violations, we show that the generation and retrieval of memory traces may differ between natural reading and word-by-word presentation. In the third study, we bridge the gap between our knowledge of behavioral and neural responses to integration difficulties in reading by analyzing the EEG in the context of regressive saccades. We find the P600, a neural indicator of recovery processes, when readers make a regressive saccade in response to integration difficulties.
The results in the present thesis demonstrate that coregistration can be a useful tool for the study of sentence processing. However, they also show that it may not be suitable for some questions, especially if they involve subtle effects.
Im Rahmen der EU-weiten REACH-Verordnung haben Alternativmethoden zum Tierversuch in der Toxikologie an Bedeutung gewonnen. Die Alternativmethoden gliedern sich auf in In-vitro- und In-silico-Methoden. In dieser Dissertation wurden verschiedene Konzepte der In-silico-Toxikologie behandelt.
Die bearbeiteten Themen reichen von quantitativen Strukturaktivitätsbeziehungen (QSAR) über eine neue Herangehensweise an das gängige Konzept zur Festlegung von Grenzwerten bis hin zu computerbasierten Modellierungen zum Alkohol- und Bisphenol-A-Stoffwechsel.
Das Kapitel über QSAR befasst sich im Wesentlichen mit der Erstellung und Analyse einer Datenbank mit 878 Substanzen, die sich aus Tierversuchsstudien aus dem Archiv des Bundesinstituts für Risikobewertung zusammensetzt. Das Design wurde dabei an eine bereits bestehende Datenbank angepasst, um so einen möglichst großen Datenpool zu generieren. In der Analyse konnte u.a. gezeigt werden, dass Stoffe mit niedrigerem Molekulargewicht ein erhöhtes Potential für toxikologische Schäden aufwiesen als größere Moleküle.
Mit Hilfe des sogenannten TTC-Konzepts können Grenzwerte für Stoffe geringer Exposition festgelegt werden, zu denen keine toxikologischen Daten zur Verfügung stehen. In dieser Arbeit wurden für die Stoffe dreier Datenbanken entsprechende Grenzwerte festgelegt. Es erfolgte zunächst eine gängige strukturbasierte Aufteilung der Substanzen in die Kategorien "nicht toxisch", "möglicherweise toxisch" und "eindeutig toxisch". Substanzen, die aufgrund ihrer Struktur in eine der drei Klassen eingeordnet werden, erhalten den entsprechenden Grenzwert. Da in die dritte Klasse auch Stoffe eingeordnet werden, deren Toxizität nicht bestimmbar ist, ist sie sehr groß. Daher wurden in dieser Arbeit die ersten beiden Klassen zusammengelgt, um einen größeren Datenpool zu ermöglichen. Eine weitere Neuerung umfasst die Erstellung eines internen Grenzwerts. Diese Vorgehensweise hat den Vorteil, dass der Expositionsweg herausgerechnet wird und somit beispielsweise Studien mit oraler Verabreichung mit Studien dermaler Verabreichung verglichen werden können.
Mittels physiologisch basiertem kinetischem Modelling ist es möglich, Vorgänge im menschlichen Körper mit Hilfe spezieller Software nachzuvollziehen. Durch diese Vorgehensweise können Expositionen von Chemikalien simuliert werden. In einem Teil der Arbeit wurden Alkoholexpositionen von gestillten Neugeborenen simuliert, deren Mütter unmittelbar zuvor alkoholische Getränke konsumiert hatten. Mit dem Modell konnte gezeigt werden, dass die Expositionen des Kindes durchweg gering waren. Nach einem Glas Wein wurden Spitzenkonzentrationen im Blut von Neugeborenen von 0,0034 Promille ermittelt. Zum Vergleich wurde die Exposition durch ein für Säuglinge zugelassenes alkoholhaltiges pflanzliches Arzneimittel simuliert. Hier wurden Spitzenkonzentrationen von 0,0141 Promille erreicht. Daher scheinen Empfehlungen wie gelegentlicher Konsum ohne schädigende Wirkung auf das Kind wissenschaftlich fundiert zu sein.
Ein weiteres Kinetik-Modell befasste sich mit dem Stoffwechsel von Bisphenol A. Teils widersprüchliche Daten zur Belastung mit BPA in der wissenschaftlichen Literatur führen wiederholt zu Anregungen, den Grenzwert der Chemikalie anzupassen. Die Funktionalität der am Metabolismus beteiligten Enzyme kann je nach Individuum unterschiedlich ausgeprägt sein. Mittels Modellings konnte hier gezeigt werden, dass dies maßgeblich dazu führt, dass sich berechnete Plasmaspiegel von Individuen bis zu 4,7-fach unterscheiden.
Die Arbeit konnte somit einen Beitrag zur Nutzung und Weiterentwicklung von In-silico-Modellen für diverse toxikologische Fragestellungen leisten.
Stream water and groundwater are important fresh water resources but their water quality is deteriorated by harmful solutes introduced by human activities. The interface between stream water and the subsurface water is an important zone for retention, transformation and attenuation of these solutes. Streambed structures enhance these processes by increased water and solute exchange across this interface, denoted as hyporheic exchange.
This thesis investigates the influence of hydrological and morphological factors on hyporheic water and solute exchange as well as redox-reactions in fluvial streambed structures on the intermediate scale (10–30m). For this purpose, a three-dimensional numerical modeling approach for coupling stream water flow with porous media flow is used. Multiple steady state stream water flow scenarios over different generic pool-riffle morphologies and a natural in-stream gravel bar are simulated by a computational fluid dynamics code that provides the hydraulic head distribution at the streambed. These heads are subsequently used as the top boundary condition of a reactive transport groundwater model of the subsurface beneath the streambed. Ambient groundwater that naturally interacts with the stream water is considered in scenarios of different magnitudes of downwelling stream water (losing case) and upwelling groundwater (gaining case). Also, the neutral case, where stream stage and groundwater levels are balanced is considered. Transport of oxygen, nitrate and dissolved organic carbon and their reaction by aerobic respiration and denitrification are modeled.
The results show that stream stage and discharge primarily induce hyporheic exchange flux and solute transport with implications for specific residence times and reactions at both the fully and partially submerged structures. Gaining and losing conditions significantly diminish the extent of the hyporheic zone, the water exchange flux, and shorten residence times for both the fully and partially submerged structures. With increasing magnitude of gaining or losing conditions, these metrics exponentially decrease.
Stream water solutes are transported mainly advectively into the hyporheic zone and hence their influx corresponds directly to the infiltrating water flux. Aerobic respiration takes place in the shallow streambed sediments, coinciding to large parts with the extent of the hyporheic exchange flow. Denitrification occurs mainly as a “reactive fringe” surrounding the aerobic zone, where oxygen concentration is low and still a sufficient amount of stream water carbon source is available. The solute consumption rates and the efficiency of the aerobic and anaerobic reactions depend primarily on the available reactive areas and the residence times, which are both controlled by the interplay between hydraulic head distribution at the streambed and the gradients between stream stage and ambient groundwater. Highest solute consumption rates can be expected under neutral conditions, where highest solute flux, longest residence times and largest extent of the hyporheic exchange occur. The results of this thesis show that streambed structures on the intermediate scale have a significant potential to contribute to a net solute turnover that can support a healthy status of the aquatic ecosystem.
Die Häufung von Diabetes, Herz-Kreislauf-Erkrankungen und einigen Krebsarten, deren Entstehung auf Übergewicht und Bewegungsmangel zurückzuführen sind, ist ein aktuelles Problem unserer Gesellschaft. Insbesondere mit fortschreitendem Alter nehmen die damit einhergehenden Komplikationen zu. Umso bedeutender ist das Verständnis der pathologischen Mechanismen in Folge von Adipositas, Bewegungsmangel, des Alterungsprozesses und den Einfluss-nehmenden Faktoren.
Ziel dieser Arbeit war die Entstehung metabolischer Erkrankungen beim Menschen zu untersuchen. Die Auswertung von Verlaufsdaten anthropometrischer und metabolischer Parameter der 584 Teilnehmern der prospektiven ‚Metabolisches Syndrom Berlin Potsdam Follow-up Studie‘ wies für die gesamte Kohorte einen Anstieg an Übergewicht, ebenso eine Verschlechterung des Blutdrucks und des Glukosestoffwechsels auf. Wir untersuchten, ob das Hormon FGF21 Einfluss an dem Auftreten eines Diabetes mellitus Typ 2 (T2DM) oder des Metabolischen Syndroms (MetS) hat. Wir konnten zeigen, dass Personen, die später ein MetS entwickeln, bereits zu Studienbeginn einen erhöhten FGF21-Spiegel, einen höheren BMI, WHR, Hb1Ac und diastolischen Blutdruck aufwiesen. Neben FGF21 wurde auch Vaspin in diesem Zusammenhang untersucht. Es zeigte sich, dass Personen, die später einen T2DM entwickeln, neben einer Erhöhung klinischer Parameter tendenziell erhöhte Spiegel des Hormons aufwiesen. Mit FGF21 und Vaspin wurden hier zwei neue Faktoren für die Vorhersage des Metabolischen Syndroms bzw. Diabetes mellitus Typ 2 identifiziert.
Der langfristige Effekt einer Gewichtsreduktion wurde in einer Subkohorte von 60 Personen untersucht. Der überwiegende Teil der Probanden mit Gewichtsabnahme-Intervention nahm in der ersten sechsmonatigen Phase erfolgreich ab. Jedoch zeigte sich ein deutlicher Trend zur Wiederzunahme des verlorenen Gewichts über den Beobachtungszeitraum von fünf Jahren. Von besonderem Interesse war die Abschätzung des kardiovaskulären Risikos über den Framingham Score. Es wurde deutlich, dass für Personen mit konstanter Gewichtsabnahme ein deutlich geringeres kardiovaskuläres Risiko bestand. Hingegen zeigten Personen mit konstanter Wiederzunahme oder starken Gewichtsschwankungen ein hohes kardiovaskuläres Risiko. Unsere Daten legten nahe, dass eine erfolgreiche dauerhafte Gewichtsreduktion statistisch mit einem erniedrigten kardiovaskulären Risiko assoziiert ist, während Probanden mit starken Gewichtsschwankungen oder einer Gewichtszunahme ein gesteigertes Risiko haben könnten.
Um die Interaktion der molekularen Vorgänge hinsichtlich der Gewichtsreduktion und Lebensspanne untersuchen zu können, nutzen wir den Modellorganismus C.elegans. Eine kontinuierliche Restriktion wirkte sich verlängernd, eine Überversorgung verkürzend auf die Lebensspanne des Rundwurms aus. Der Einfluss eines zeitlich eingeschränkten, intermittierenden Nahrungsregimes, analog zum Weight-Cycling im Menschen, auf die Lebensspanne war von großem Interesse. Dieser regelmäßige Wechsel zwischen ad libitum Fütterung und Restriktion hatte in Abhängigkeit von der Häufigkeit der Restriktion einen unterschiedlich starken lebensverlängernden Effekt. Phänomene, wie Gewichtswiederzunahmen, sind in C.elegans nicht zu beobachten und beruhen vermutlich auf einem Mechanismus ist, der evolutionär jünger und in C.elegans noch nicht angelegt ist.
Um neue Stoffwechselwege zu identifizieren, die die Lebensspanne beeinflussen, wurden Metabolitenprofile genetischer als auch diätetischer Langlebigkeitsmodelle analysiert. Diese Analysen wiesen den Tryptophan-Stoffwechsel als einen neuen, bisher noch nicht im Fokus stehenden Stoffwechselweg aus, der mit Langlebigkeit in Verbindung steht.
Konzessionen (auch: Zugeständnisse) spielen in Einkäufer-Zulieferer-Verhandlungen eine entscheidende Rolle, weil die beteiligten Verhandlungsparteien in der Regel nur über Konzessionen, das heißt über eine Abfolge von entgegenkommenden Angeboten, zu einem von beiden Seiten akzeptierten Verhandlungsergebnis kommen. Da Verhandelnde mit der Abgabe von eigenen Konzessionen jedoch einen Teil ihrer individuellen Verhandlungsmasse hergeben und durch Konzessionen des Gegenübers einen Teil zu ihrer Verhandlungsmasse dazu gewinnen können, beeinflussen Konzessionen maßgeblich die Verhandlungsperformance von Verhandelnden. Diese wiederum hat nachweislich einen Einfluss auf die Profitabilität von Unternehmen.
Vor diesem Hintergrund ist es sowohl für die Verhandlungsforschung als auch für die Verhandlungspraxis von Interesse, zu untersuchen, wann und wie Verhandelnde Konzessionen in Verhandlungen machen sollten, um die eigene Verhandlungsperformance zu optimieren. Im Rahmen der vorliegenden Untersuchung widmet sich die Autorin dieser Fragestellung, indem sie erstens (1) untersucht, ob Verhandelnde die erste Konzession in einer Verhandlung machen sollten, zweitens (2) analysiert, nach welchem Konzessionsmuster Verhandelnde verhandeln sollten und drittens (3) die Vorteilhaftigkeit der Abgabe von Konzessionen in Form von Paketangeboten in Verhandlungen mit mehreren Verhandlungsgegenständen (z. B. Preis, Menge und Lieferkonditionen) ermittelt. Mit der Bearbeitung dieser Teilfragestellungen schließt die Autorin zum einen Lücken in der Verhandlungsforschung und zum anderen leitet sie relevante Implikationen für ein systematisches Konzessionsmanagement in der Verhandlungspraxis ab.
We study segregation of the subducted oceanic crust (OC) at the core mantle boundary and its ability to accumulate and form large thermochemical piles (such as the seismically observed Large Low Shear Velocity Provinces - LLSVPs). Our high-resolution numerical simulations suggest that the longevity of LLSVPs for up to three billion years, and possibly longer, can be ensured by a balance in the rate of segregation of high-density OC-material to the CMB, and the rate of its entrainment away from the CMB by mantle upwellings.
For a range of parameters tested in this study, a large-scale compositional anomaly forms at the CMB, similar in shape and size to the LLSVPs. Neutrally buoyant thermochemical piles formed by mechanical stirring - where thermally induced negative density anomaly is balanced by the presence of a fraction of dense anomalous material - best resemble the geometry of LLSVPs. Such neutrally buoyant piles tend to emerge and survive for at least 3Gyr in simulations with quite different parameters. We conclude that for a plausible range of values of density anomaly of OC material in the lower mantle - it is likely that it segregates to the CMB, gets mechanically mixed with the ambient material, and forms neutrally buoyant large scale compositional anomalies similar in shape to the LLSVPs.
We have developed an efficient FEM code with dynamically adaptive time and space resolution, and marker-in-cell methodology. This enabled us to model thermochemical mantle convection at realistically high convective vigor, strong thermally induced viscosity variations, and long term evolution of compositional fields.
In this thesis we study reciprocal classes of Markov chains. Given a continuous time Markov chain on a countable state space, acting as reference dynamics, the associated reciprocal class is the set of all probability measures on path space that can be written as a mixture of its bridges. These processes possess a conditional independence property that generalizes the Markov property, and evolved from an idea of Schrödinger, who wanted to obtain a probabilistic interpretation of quantum mechanics.
Associated to a reciprocal class is a set of reciprocal characteristics, which are space-time functions that determine the reciprocal class. We compute explicitly these characteristics, and divide them into two main families: arc characteristics and cycle characteristics. As a byproduct, we obtain an explicit criterion to check when two different Markov chains share their bridges.
Starting from the characteristics we offer two different descriptions of the reciprocal class, including its non-Markov probabilities.
The first one is based on a pathwise approach and the second one on short time asymptotic. With the first approach one produces a family of functional equations whose only solutions are precisely the elements of the reciprocal class. These equations are integration by parts on path space associated with derivative operators which perturb the paths by mean of the addition of random loops. Several geometrical tools are employed to construct such formulas. The problem of obtaining sharp characterizations is also considered, showing some interesting connections with discrete geometry. Examples of such formulas are given in the framework of counting processes and random walks on Abelian groups, where the set of loops has a group structure.
In addition to this global description, we propose a second approach by looking at the short time behavior of a reciprocal process. In the same way as the Markov property and short time expansions of transition probabilities characterize Markov chains, we show that a reciprocal class is characterized by imposing the reciprocal property and two families of short time expansions for the bridges. Such local approach is suitable to study reciprocal processes on general countable graphs. As application of our characterization, we considered several interesting graphs, such as lattices, planar
graphs, the complete graph, and the hypercube.
Finally, we obtain some first results about concentration of measure implied by lower bounds on the reciprocal characteristics.
The relationship between nutrition and the development of chronic diseases including metabolic syndrome, diabetes mellitus, cancer and cardiovascular disease has been well studied. On the other hand, changes in the GH-IGF-1 axis in association with nutrition-related diseases have been reported. The interplay between GH, total IGF-1 and different inhibitory and stimulatory kinds of IGF-1 binding proteins (IGFBPs) results in IGF-1 bioactivity, the ability of IGF-1 to induce phosphorylation of its receptor and consequently its signaling. Moreover, IGF-1 bioactivity is sufficient to reflect any change in the GH-IGF-1 system. Accumulating evidence suggests that both of high protein diet, characterized by increased glucagon secretion, and insulin-induced hypoglycemia increase mortality rate and the mechanisms are unclear. However both of glucagon and insulin-induced hypoglycemia are potent stimuli of GH secretion. The aim of the current study was to identify the impact of glucagon and insulin-induced hypoglycemia on IGF-1 bioactivity as possible mechanisms. In a double-blind placebo-controlled study, glucagon was intramuscularly administrated in 13 type 1 diabetic patients (6 males /7 females; [BMI]: 24.8 ± 0.95 kg/m2), 11 obese subjects (OP; 5/ 6; 34.4 ± 1.7 kg/m2), and 13 healthy lean participants (LP; 6/ 7; 21.7 ± 0.6 kg/m2), whereas 12 obese subjects (OP; 6/ 6; 34.4 ± 1.7 kg/m2), and 13 healthy lean participants (LP; 6/ 7; 21.7 ± 0.6 kg/m2) performed insulin tolerance test in another double-blind placebo-controlled study and changes in GH, total IGF-1, IGF binding proteins (IGFBPs) and IGF-1 bioactivity, measured by the cell-based KIRA method, were investigated. In addition, the interaction between the metabolic hormones (glucagon and insulin) and the GH-IGF-1 system on the transcriptional level was studied using mouse primary hepatocytes. In this thesis, glucagon decreased IGF-1 bioactivity in humans independently of endogenous insulin levels, most likely through modulation of IGFBP-1 and-2 levels. The glucagon-induced reduction in IGF-1 bioactivity may represent a novel mechanism underlying the impact of glucagon on GH secretion and may explain the negative effect of high protein diet related to increased cardiovascular risk and mortality rate. In addition, insulin-induced hypoglycemia was correlated with a decrease in IGF-1 bioactivity through up-regulation of IGFBP-2. These results may refer to a possible and poorly explored mechanism explaining the strong association between hypoglycemia and increased cardiovascular mortality among diabetic patients.
This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000).
Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003).
Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005).
In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model.
Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'.
Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account.
It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011).
Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent.
Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions.
Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing.
Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based
accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives.
Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts.
The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind.
How does perceptual experience make us knowledgeable? This book argues that the answer lies in the nature of perceptual experience: this experience involves conceptual capacities and is a relation between perceiver and world. The author develops her position via a critical examination of conceptualist and relationist theories of perception. A discussion of recent work in vision science rounds up this contribution to the philosophy of perception.
Learners' Little Helper
(2015)
Effects of a novel non-steroidal mineralocorticoid receptor antagonist on cardiac hypertrophy
(2015)
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Two of the most controversial issues concerning the late Cenozoic evolution of the Andean orogen are the timing of uplift of the intraorogenic Puna plateau and its eastern border, the Eastern Cordillera, and ensuing changes in climatic and surface-process conditions in the intermontane basins of the NW-Argentine Andes. The Eastern Cordillera separates the internally drained, arid Puna from semi-arid intermontane basins and the humid sectors of the Andean broken foreland and the Subandean fold-and-thrust belt to the east. With elevations between 4,000 and 6,000 m the eastern flanks of the Andes form an efficient orographic barrier with westward-increasing elevation and asymmetric rainfall distribution and amount with respect to easterly moisture-bearing winds. This is mirrored by pronounced gradients in the efficiency of surface processes that erode and re-distribute sediment from the uplifting ranges. Although the overall pattern of deformation and uplift in this sector of the southern central Andes shows an eastward migration of deformation, a well-developed deformation front does not exist and uplift and associated erosion and sedimentary processes are highly disparate in space and time. In addition, periodic deformation within intermontane basins, and continued diachronous foreland uplifts associated with the reactivation of inherited basement structures furthermore make a rigorous assessment of the spatiotemporal uplift patterns difficult.
This thesis focuses on the tectonic evolution of the Eastern Cordillera of NW Argentina, the depositional history of its intermontane sedimentary basins, and the regional topographic evolution of the eastern flank of the Puna Plateau. The intermontane basins of the Eastern Cordillera and the adjacent morphotectonic provinces of the Sierras Pampeanas and the Santa Bárbara System are akin to reverse fault bounded, filled, and partly coalesced sedimentary basins of the Puna Plateau. In contrast to the Puna basins, however, which still form intact morphologic entities, repeated deformation, erosion, and re-filling have impacted the basins in the Eastern Cordillera. This has resulted in a rich stratigraphy of repeated basin fills, but many of these basins have retained vestiges of their early depositional history that may reach back in time when these areas were still part of a contiguous and undeformed foreland basin. Fortunately, these strata also contain abundant volcanic ashes that are not only important horizons to decipher tectono-sedimentary events through U-Pb geochronology and geochemical correlation, but they also represent terrestrial recorders of the hydrogen-isotope composition of ancient meteoric waters that can be compared to the isotopic composition of modern meteoric water. The ash horizons are thus unique recorders of past environmental conditions and lend themselves to tracking the development of rainfall barriers and tectonically forced climate and environmental change through time.
U-Pb zircon geochronology and paleocurrent reconstructions of conglomerate sequences in the Humahuaca Basin of the Eastern Cordillera at 23.5° S suggest that the basin was an integral part of a largely unrestricted depositional system until 4.2 Ma, which subsequently became progressively decoupled from the foreland by range uplifts to the east that forced easterly moisture-bearing winds to precipitate in increasingly eastward locations. Multiple cycles of severed hydrological conditions and drainage re-capture are identified together with these processes that were associated with basin filling and sediment evacuation, respectively. Moreover, systematic relationships among faults, regional unconformities and deformed landforms reveal a general pattern of intra-basin deformation that appears to be linked with basin-internal deformation during or subsequent to episodes of large-scale sediment removal. Some of these observations are supported by variations in the hydrogen stable isotope composition of volcanic glass from the Neogene to Quaternary sedimentary record, which can be related to spatiotemporal changes in topography and associated orographic effects. δDg values in the basin strata reveal two main trends associated with surface uplift in the catchment area between 6.0 and 3.5 Ma and the onset of semiarid conditions in the basin following the attainment of threshold elevations for effective orographic barriers to the east after 3.5 Ma. The disruption of sediment supply from western sources after 4.2 Ma and subsequent hinterland aridification, moreover, emphasize the possibility that these processes were related to lateral orogenic growth of the adjacent Puna Plateau. As a result of the hinterland aridification the regions in the orogen interior have been characterized by an inefficient fluvial system, which in turn has helped maintaining internal drainage conditions, sediment storage, and relief reduction within high-elevation basins.
The diachronous nature of basin formation and impacts on the fluvial system in the adjacent broken foreland is underscored by the results of detailed sediment provenance and paleocurrent analyses, as well as U-Pb zircon geochronology in the Lerma and Metán basins at ca. 25° S. This is particularly demonstrated by the isolated uplift of the Metán range at ~10 Ma, which is more than 50 km away from the presently active orogenic front along the eastern Puna margin and the Eastern Cordillera to the west. At about 5 Ma, Puna-sourced sediments disappear from the foreland record, documenting further range uplifts in the Eastern Cordillera and hydrological isolation of the neighboring Angastaco Basin from the foreland. Finally, during the late Pliocene and Quaternary, deformation has been accommodated across the entire foreland and is still active. To elucidate the interactions between tectonically controlled changes in elevation and their impact on atmospheric circulation processes in this region, this thesis provides additional, temporally well-constrained hydrogen stable isotope results of volcanic glass samples from the broken foreland, including the Angastaco Basin, and other intermontane basins farther south. The results suggest similar elevations of intermontane basins and the foreland sectors prior to ca. 7 Ma. In case of the Angastaco Basin the region was affected by km-scale surface uplift of the basin. A comparison with coeval isotope data collected from sedimentary sequences in the Puna plateau explains rapid shifts in the intermontane δDg record and supports the notion of recurring phases of enhanced deep convection during the Pliocene, and thus climatic conditions during the middle to late Pliocene similar to the present day.
Combined, field-based and isotope geochemical methods used in this study of the NW-Argentine Andes have thus helped to gain insight into the systematics, rate changes, interactions, and temporal characteristics among tectonically controlled deformation patterns, the build-up of topography impacting atmospheric processes, the distribution of rainfall, and resulting surface processes in a tectonically active mountain belt. Ultimately, this information is essential for a better understanding of the style and the rates at which non-collisional mountain belts evolve, including the development orogenic plateaus and their bordering flanks. The results presented in this study emphasize the importance of stable isotope records for paleoaltimetric and paleoenvironmental studies in mountain belts and furnishes important data for a rigorous interpretation of such records.
Straßen im Fluss
(2015)
Auch in historischer Zeit waren Straßen, Wege und Verkehrsbahnen Orte innovativer Entwicklungen der Technik, der Mobilität sowie der Infrastruktur. Anders als die ältere Forschung und populären Vorstellungen meinen, währten die Umgestaltungen der Kulturlandschaft seit dem 13. Jahrhundert bemerkenswert lange.
Diese »etwas andere« Mittelalter-Geschichte mit ihrer epochenübergreifenden Wirkung zeigt in vielen Details die vorliegende Studie. Sie schöpft aus den bewährten Methoden der Altweg-, Binnenschifffahrts- und Infrastrukturgeschichtsforschung und entdeckt dabei auf innovative Weise »Straßen im Fluss« als Modell. Mit Blick auf den Verkehrsraum zwischen Elbe und Oder – vom Spreewald über Berlin-Cölln und Brandenburg an der Havel bis nach Havelberg – gelingt erstmals eine zwischen dem mittelalterlichen Landesausbau und dem 16. Jahrhundert angesiedelte Geschichte der beiden Hauptflüsse Spree und Havel sowie ihrer Nebenläufe.
Der Autor rückt das Leben der Menschen am und auf dem Fluss ins Licht und beschreibt quellennah, wie vor allem die Städte, aber auch geistliche Institutionen wie Domstift oder Klöster an dem Wandel der Kulturlandschaft zu einem mannigfach »vernetzten« Verkehrsraum stark beteiligt waren. Die hier entwickelten Strukturen bewährten sich und besaßen Vorbildcharakter, so dass in späteren Jahrhunderten insbesondere Städte an diese mittelalterlichen Verkehrswirtschaftsprojekte anknüpften.
Lost in a liminal space?
(2015)
The aim of the present thesis is to answer the question to what degree the processes involved in sentence comprehension are sensitive to task demands. A central phenomenon in this regard is the so-called ambiguity advantage, which is the finding that ambiguous sentences can be easier to process than unambiguous sentences. This finding may appear counterintuitive, because more meanings should be associated with a higher computational effort. Currently, two theories exist that can explain this finding.
The Unrestricted Race Model (URM) by van Gompel et al. (2001) assumes that several sentence interpretations are computed in parallel, whenever possible, and that the first interpretation to be computed is assigned to the sentence. Because the duration of each structure-building process varies from trial to trial, the parallelism in structure-building predicts that ambiguous sentences should be processed faster. This is because when two structures are permissible, the chances that some interpretation will be computed quickly are higher than when only one specific structure is permissible. Importantly, the URM is not sensitive to task demands such as the type of comprehension questions being asked.
A radically different proposal is the strategic underspecification model by Swets et al. (2008). It assumes that readers do not attempt to resolve ambiguities unless it is absolutely necessary. In other words, they underspecify. According the strategic underspecification hypothesis, all attested replications of the ambiguity advantage are due to the fact that in those experiments, readers were not required to fully understand the sentence.
In this thesis, these two models of the parser’s actions at choice-points in the sentence are presented and evaluated. First, it is argued that the Swets et al.’s (2008) evidence against the URM and in favor of underspecification is inconclusive. Next, the precise predictions of the URM as well as the underspecification model are refined. Subsequently, a self-paced reading experiment involving the attachment of pre-nominal relative clauses in Turkish is presented, which provides evidence against strategical underspecification. A further experiment is presented which investigated relative clause attachment in German using the speed-accuracy tradeoff (SAT) paradigm. The experiment provides evidence against strategic underspecification and in favor of the URM. Furthermore the results of the experiment are used to argue that human sentence comprehension is fallible, and that theories of parsing should be able to account for that fact. Finally, a third experiment is presented, which provides evidence for the sensitivity to task demands in the treatment of ambiguities. Because this finding is incompatible with the URM, and because the strategic underspecification model has been ruled out, a new model of ambiguity resolution is proposed: the stochastic multiple-channel model of ambiguity resolution (SMCM). It is further shown that the quantitative predictions of the SMCM are in agreement with experimental data.
In conclusion, it is argued that the human sentence comprehension system is parallel and fallible, and that it is sensitive to task-demands.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
Obwohl in den unionalen Verträgen bis heute keine Vorschrift bezüglich einer Staatshaftung der Mitgliedstaaten für Entscheidungen ihrer Gerichte existiert, hat der Gerichtshof der Europäischen Union (EuGH) in einer Reihe von Entscheidungen eine solche Haftung entwickelt und präzisiert. Die vorliegende Arbeit analysiert eingehend diese Rechtsprechung mitsamt den sich daraus ergebenden facettenreichen Rechtsfragen. Im ersten Kapitel widmet sich die Arbeit der historischen Entwicklung der unionsrechtlichen Staatshaftung im Allgemeinen, ausgehend von dem bekannten Francovich-Urteil aus dem Jahr 1991. Sodann werden im zweiten Kapitel die zur Haftung für judikatives Unrecht grundlegenden Entscheidungen in den Rechtssachen Köbler und Traghetti vorgestellt. In dem sich anschließenden dritten Kapitel wird der Rechtscharakter der unionsrechtlichen Staatshaftung – einschließlich der Frage einer Subsidiarität des unionsrechtlichen Anspruchs gegenüber bestehenden nationalen Staatshaftungsansprüchen – untersucht. Das vierte Kapitel widmet sich der Frage, ob eine unionsrechtliche Staatshaftung für judikatives Unrecht prinzipiell anzuerkennen ist, wobei die wesentlichen für und gegen eine solche Haftung sprechenden Argumente ausführlich behandelt und bewertet werden. Im fünften Kapitel werden die im Zusammenhang mit den unionsrechtlichen Haftungsvoraussetzungen stehenden Probleme der Haftung für letztinstanzliche Gerichtsentscheidungen detailliert erörtert. Zugleich wird der Frage nachgegangen, ob eine Haftung für fehlerhafte unterinstanzliche Gerichtsentscheidungen zu befürworten ist. Das sechste Kapitel befasst sich mit der Ausgestaltung der unionsrechtlichen Staatshaftung für letztinstanzliche Gerichtsentscheidungen durch die Mitgliedstaaten, wobei u.a. zur Anwendbarkeit der deutschen Haftungsprivilegien bei judikativem Unrecht auf den unionsrechtlichen Staatshaftungsanspruch Stellung genommen wird. Im letzten Kapitel wird der Frage nachgegangen, ob der EuGH überhaupt über eine Kompetenz zur Schaffung der Staatshaftung für letztinstanzliche Gerichtsentscheidungen verfügte. Abschließend werden die wichtigsten Ergebnisse der Arbeit präsentiert und ein Ausblick auf weitere mögliche Auswirkungen und Entwicklungen der unionsrechtlichen Staatshaftung für judikatives Unrecht gegeben.
Entlastung und Rechtsverlust
(2015)
Die Durchsetzung von Ersatzansprüchen gegenüber Vorständen, Aufsichtsräten und Geschäftsführern begegnet vielfältigen Problemen. Sie entstehen, wenn die Gesellschafter den Organmitgliedern zunächst vorbehaltlos "Entlastung" erteilen und erst im Nachhinein von Verfehlungen erfahren. Die Arbeit geht der Frage nach, in welchen Fällen die Entlastung zum Verlust von Ersatzansprüchen führt und die Haftung der Organmitglieder ausschließt.
Aufgrund zunehmender Herausforderungen bei der Entsendung von Mitarbeitern ins Ausland beschäftigt sich die Dissertation ‚Optimierung der Anzahl an Auslandsentsendungen und Empowerment of Locals in internationalen Unternehmen’ unter Zuhilfenahme der deskriptiven Entscheidungstheorie mit der wissenschaftlichen Forschungsfrage, ob sich die Anzahl der Auslandsentsendungen von deutschen Großunternehmen in den nächsten Jahren verändern wird und welche Parameter, wie z.B. die strategische Ausrichtung des Unternehmens, dafür ausschlaggebend sind. Darüber hinaus wird analysiert, inwieweit eine solche Reduzierung erfolgversprechend ist und ob es eine optimale Anzahl an Auslandsentsendungen gibt. Weiterhin wird untersucht, wie Auslandsentsendungen erfolgreich optimiert werden können und ob dies - beispielsweise durch ein gezieltes Empowerment of Locals - unterstützt werden kann. Dieses Buch richtet sich sowohl an Forschende und Studierende im Bereich der BWL – insbesondere mit den Schwerpunkten Personalmanagement und Internationales Management – als auch an HR-Mitarbeiter, Führungskräfte und Berater, die an theoretischen und empirischen Erkenntnissen zu Auslandsentsendung von Mitarbeitern und Expatriate-Management interessiert sind
The main research question of this thesis concerns the relation between focus interpretation, focus realization, and association with focus in the West Chadic language Ngamo.
Concerning the relation between focus realization and interpretation, this thesis contributes to the question, cross-linguistically, what factors influence a marked realization of the focus/background distinction. There is background-marking rather than focus-marking in Ngamo, and the background marker is related to the definite determiner in the language. Using original fieldwork data as a basis, a formal semantic analysis of the background marker as a definite determiner of situations is proposed.
Concerning the relation between focus and association with focus, the thesis adds to the growing body of crosslinguistic evidence that not all so-called focus-sensitive operators always associate with focus. The thesis shows that while the exclusive particle yak('i) (= "only") in Ngamo conventionally associates
with focus, the particles har('i) (= "even, as far as, until, already"), and ke('e) (= "also, and") do not.
The thesis provides an analysis of these phenomena in a situation semantic framework.
In this thesis we utilize resolved stellar populations to improve our understanding of galaxy formation and evolution. In the first part we improve a method for metallicity determination of faint old stellar systems, in the second and third part we analyze the individual history of six nearby disk galaxies outside the Local Group.
A New Calibration of the Color Metallicity Relation of Red Giants for HST data:
It is well known, that the color distribution of stars on the the Red Giant Branch (RGB) can be used to determine metallicities of old stellar populations that have only shallow photometry. Based on the largest sample of globular clusters ever used for such studies, we quantify the relation between metallicity and color in the widely used HST ACS filters F606W and F814W.
We use a sample of globular clusters from the ACS Globular Cluster Survey and measure their RGB color at given absolute magnitudes to derive the color-metallicity relation. We find a clear relation between metallicity and RGB color; we investigate the scatter and the uncertainties in this relation and show its limitations. A comparison with isochrones shows reasonably good agreement with BaSTI models, a small offset to Dartmouth models, and a larger offset to Padua models.
Even for the best globular cluster data available, the metallicity of a simple stellar population can be determined from the RGB alone only with an accuracy of 0.3 dex for [M/H]<-1, and 0.15 dex for [M/H]>-1. For mixed populations, as they are observed in external galaxies, the uncertainties will be even larger due to uncertainties in extinction, age, etc. Therefore caution is necessary when interpreting photometric metallicities.
The Structural History of Nearby Low Mass Disk Galaxies:
We study the individual evolution histories of three nearby, low-mass, edge-on galaxies (IC5052, NGC4244, NGC5023).
Using the color magnitude diagrams of resolved stellar populations, we construct star count density maps for populations of different ages and analyze the change of structural parameters with stellar age within each galaxy.
The three galaxies show low vertical heating rates, which are much lower than the heating rate of the Milky Way. This indicates that heating agents, as giant molecular clouds and spiral structure are weak in low mass galaxies.
We do not detect a separate thick disk in any of the three galaxies, even though our observations cover a larger range in equivalent surface brightness than any integrated light study. While scaleheights increase with age, each population can be well described by a single disk. Only two of the galaxies contain a very weak additional component, which we identify as the faint halo. The mass of these faint halos is less than 1% of the mass of the disk.
All populations in the three galaxies exhibit no or only little flaring. While this finding is consistent with previous integrated light studies, it poses strong constraints on galaxy formation models, because most theoretical simulations often find strong flaring due to interactions or radial migration.
Furthermore, we find breaks in the radial profiles of all three galaxies. The radii of these breaks are independent of age, and the break strength is decreasing with age in two of the galaxies (NGC4244 and NGC5023). This is consistent with break formation models, that combine a star formation cutoff with radial migration. The differing behavior of IC5052 can be explained by a recent interaction or minor merger.
The Structural History of Massive Disk Galaxies:
We extend the structural analysis of stellar populations with distinct ages to three massive galaxies, NGC891, NGC4565 and NGC7814. While confusion effects due to the high stellar number densities in their central region, and the prominent dust lanes inhibit an detailed analysis of the radial profiles, we can study their vertical structure.
These massive galaxies also have a slower heating than the Milky Way, comparable to the low mass galaxies. This can be traced back to their already thick young populations and thick layers of their interstellar medium.
We do not find a clear separate thick disk in any of these three galaxies; all populations can be described by a single disk plus a S\'ersic bulge/halo component. In contrast to the low mass galaxies, we cannot rule out the presence of thick disks in the massive galaxies, because of the strong influence of the halo, that might hide the possible contribution of the thick disk to the vertical star count profiles. However, the faintness of the possible thick disks still points to problems in the earlier ubiquitous findings of thick disks in external galaxies.
One of the central questions in psycholinguistic is understanding whether and how prosodic phrase boundaries are used to resolve syntactic ambiguities in sentence processing. The present work aimed to answer both, first, the effects of φ- and ι-boundaries on syntactic ambiguity resolution, and second, how the prosodic correlates of the auditory input are taken for the phonetic-phonology mapping in order to attain a meaningful sentence interpretation.
With regard to the first aim, we investigated locally syntactic ambiguities involving either φ- or ι-phrase boundaries in German and the structural preference that listeners have, based on the prosodic content. The experiments described in this work show that German listeners exploit both types of prosodic phrase boundaries to resolve local syntactic ambiguities, that however, their disambiguation altered by the presence or absence of prosodic cues correlated with the corresponding boundary. Specifically, the perception data revealed that the phonetically measured prosodic correlates of each prosodic boundary such as pitch accents, boundary tones, deaccentuation and durational properties do not contribute to ambiguity resolution in equal measure. Rather, it is the case that listeners rely primarily on prefinal lengthening as a correlate of phrasing in the vicinity of φ-phrase boundaries, while at the level of the ι-phrase boundary, boundary tones serve as phrasal cues. This way the results of the present work take account of the as yet missing information on individual contributions of prosodic correlates on listeners’ disambiguation of syntactically ambiguous sentences in German. It further implies that the question of how German listeners resolve syntactic ambiguities cannot simply be attributed to the presence or absence of prosodic correlates. The interpretation of the phrasal structure rather depends on a more general picture of cohesion between prosodic correlates and prosodic boundary sizes.
With respect to the second aim, the processing models proposed in the present work describe a specific phonetics-phonology mapping in the vicinity of both phrase boundaries. It is assumed that auditory sentence processing proceeds in several successively organized steps, during which listeners transform overt phonetic forms into language specific abstract surface forms. This process is referred to as phonetics-phonology mapping in the present work. Perceptual evidence resulting from the experiments of the present work suggest that the phonetics-phonology mapping is guided by the above mentioned boundary related prosodic correlates. The resulting abstract phonological structure is subjected to the syntax-prosody mapping, in turn. The outcome of the presented perception experiments are modulated in an Optimality-Theoretic framework. The offered OT-models are grounded on the assumption that single prosodic correlates are used by listeners as a signal to syntax in sentence processing. This is in line with studies arguing that the prosodic phrase structure determines the syntactic parse (Cutler et al., 1997; Warren et al., 1995; Pynte & Prieur, 1996; Snedeker & Trueswell, 2003; Kjelgaard & Speer, 1999), to name just a few.
Die Honigbiene Apis mellifera zeigt innerhalb einer Kolonie eine an das Alter gekoppelte Arbeitsteilung. Junge Honigbienen versorgen die Brut (Ammenbienen), während ältere Honigbienen (Sammlerinnen) außerhalb des Stocks Pollen und Nektar eintragen. Die biogenen Amine Octopamin und Tyramin sind an der Steuerung der Arbeitsteilung maßgeblich beteiligt. Sie interagieren mit Zielzellen über die Bindung an G Protein gekoppelte Rezeptoren. A. mellifera besitzt fünf charakterisierte Octopaminrezeptoren (AmOctαR1, AmOctβR1-4), einen charakterisierten Tyraminrezeptor (AmTyr1) sowie einen weiteren putativen Tyraminrezeptor.
In der vorliegenden Arbeit wurde dieser putative Aminrezeptor als zweiter Tyraminrezeptor (AmTyr2) identifiziert, lokalisiert und pharmakologisch charakterisiert.
Die von der cDNA abgeleitete Aminosäuresequenz weist strukturelle Eigenschaften und konservierte Motive von G Protein gekoppelten Rezeptoren auf. Phylogenetisch ordnet sich der AmTyr2 Rezeptor bei den Tyramin 2 Rezeptoren anderer Insekten ein. Die funktionelle und pharmakologische Charakterisierung des putativen Tyraminrezeptors erfolgte in modifizierten HEK293 Zellen, die mit der Rezeptor cDNA transfiziert wurden. Die Applikation von Tyramin aktiviert Adenylylcyclasen in diesen Zellen und resultiert in einem Anstieg des intrazellulären cAMP Gehalts. Der AmTyr2 Rezeptor kann durch Tyramin in nanomolaren Konzentrationen halbmaximal aktiviert werden. Während es sich bei Octopamin um einen wirkungsvollen Agonisten des Rezeptors handelt, sind Mianserin und Yohimbin effektive Antagonisten. Für die Lokalisierung des Rezeptorproteins wurde ein polyklonaler Antikörper generiert. Eine AmTyr2-ähnliche Immunreaktivität zeigt sich im Gehirn in den optischen Loben, den Antennalloben, dem Zentralkomplex und in den Kenyon Zellen der Pilzkörper.
Des Weiteren wurde die Rolle der Octopamin- und Tyraminrezeptoren bei der Steuerung der altersabhängigen Arbeitsteilung analysiert.
Die Genexpression des AmOctαR1 in verschiedenen Gehirnteilen korreliert unabhängig vom Alter mit der sozialen Rolle, während sich die Genexpression von AmOctβR3/4 und den Tyraminrezeptoren AmTyr1 und AmTyr2 maximal mit dem Alter aber nicht der sozialen Rolle ändert. Sammlerinnen weisen einen höheren Octopamingehalt im Gesamtgehirn auf als Ammenbienen; bei Tyramin zeigen sich keine Unterschiede. Während Tyramin offensichtlich keine direkte Rolle spielt, werden durch Octopamin gesteuerte Prozesse der altersabhängigen Arbeitsteilung bei der Honigbiene vermutlich über den AmOctαR1 vermittelt.
Die Ergebnisse der vorliegenden Arbeit zeigen die wichtige Rolle von biogenen Aminen, insbesondere Octopamin bei der sozialen Organisation von Insektenstaaten.
Fiktion im Historischen
(2015)
Lucans unter Nero entstandenes Epos über den römischen Bürgerkrieg zielt weniger auf eine historisch korrekte Darstellung ab als auf eine Deutung in weitaus größerem Maße. Dafür bricht der Autor mit üblichen Gattungskonventionen, obwohl er typische Elemente des Genres nutzt. Entscheidend für das Verständnis ist die Bildsprache mit ihren Gleichnissen, Kurzvergleichen, Metaphern und Exempla, die bisher zu wenig Beachtung fanden und im Anhang erstmals vollständig erfaßt sind. So gleicht etwa Crassus einem “Isthmus”, der Caesar und Pompeius trennt, der alternde Pompeius einer “stürzenden Eiche” oder Caesar durch sein schnelles entschiedenes Handeln einem “Blitz”. Solche Formen werden planvoll eingesetzt und verknüpft, um die zentrale Rolle der Akteure im Bürgerkrieg zu kommunizieren. Dabei kommt Caesar, Pompeius, Cato, den Soldaten, dem Volk und einigen Nebenfiguren mehr Bedeutung zu als in anderen Berichten und epischen Prätexten. Der Blick des Lesers soll weniger auf das Geschehen als auf das Verhalten der Menschen gelenkt werden, wozu einzelne Geschehensabläufe auffallend anders als in anderen Quellen gewichtet und gestaltet sind.
Die Dissertation mit dem Thema „Demografie und politischer Reduktionismus – eine Diskursanalyse der Demografiepolitik in Deutschland“ knüpft an die Debatte um die Demografisierung an, die sich damit beschäftigt, dass gesellschaftliche Entwicklungen häufig zu sehr aus einer demografischen Perspektive betrachtet und beschrieben werden. Sie analysiert die zum Teil noch jungen Diskurse, die durch Akteure in Wissenschaft, Politik und Publizistik zu den demografiepolitischen Strategien und Aktivitäten der Bundesregierung geführt werden.
Dabei werden Teilbereiche der Gesellschaft, darunter insbesondere die soziale Sicherung, die Generationenbeziehungen sowie die ökonomische Entwicklung und auch räumliche Aspekte der Demografie, in den Blick genommen. Es werden ausgewählte Zusammenhänge zwischen gesellschaftlichen Entwicklungen und demografischen Veränderungen reflektiert, denen ein kausales Beziehungsverhältnis bescheinigt wird. Es wird aufgezeigt, wo mit Verweis auf die Demografie lediglich Deutungsangebote geschaffen und Kausalbehauptungen aufgestellt werden.
Von besonderem Untersuchungsinteresse ist hierbei die Demografie als Argument, um politisches, wirtschaftliches und soziales Handeln zu legitimieren und ein gesellschaftliches Klima der Akzeptanz zu erzeugen. Wo erweist sich die Demografie als ein Spekulationsobjekt – wo ist sie erwiesene, überprüfbare Kausalität? Und wo ist die Grenze zur Instrumentalisierung der Demografie zu ziehen? Es wird belegt, dass eine Gelegenheitsdemografie vor allem aus drei Gründen praktiziert wird: Sie verschafft organisierten Interessen Gehör, sie bietet Orientierung in komplexen Gesellschaften und sie dient als Beurteilungsmaßstab der Bewertung von gesellschaftlichen Entwicklungen.
Die aktuelle Konjunktur von Diskursen zum demografischen Wandel sorgt dafür, dass die Gelegenheiten, mit Demografie zu argumentieren, immer wieder reproduziert werden. In der Folge werden nicht nur gesellschaftliche Entwicklungen zu sehr auf demografische Komponenten zurückgeführt. Auch das familien-, sozial-, migrations- und wirtschaftspolitische Denken und Handeln wird häufig über das Maß tatsächlicher Ursache-Wirkungs-Zusammenhänge hinaus auf vermeintliche demografische Gesetzmäßigkeiten reduziert (Reduktionismus).
Die Diskursanalyse der Demografiepolitik in Deutschland will die Bedeutung des demografischen Wandels für die Gesellschaft dabei nicht in Frage stellen. Sie soll für einen kritischeren Umgang mit der Demografie sensibilisieren. Dazu gehört auch, aufzuzeigen, dass die Demografie ein Faktor unter vielen ist.
This thesis investigates the application of polyelectrolyte multilayers in plasmonics and picosecond acoustics. The observed samples were fabricated by the spin-assisted layer-by-layer deposition technique that allowed a precise tuning of layer thickness in the range of few nanometers.
The first field of interest deals with the interaction of light-induced localized surface plasmons (LSP) of rod-shaped gold nanoparticles with the particles' environment. The environment consists of an air phase and a phase of polyelectrolytes, whose ratio affects the spectral position of the LSP resonance.
Measured UV-VIS spectra showed the shift of the LSP absorption peak as a function of the cover layer thickness of the particles. The data are modeled using an average dielectric function instead of the dielectric functions of air and polyelectrolytes. In addition using a measured dielectric function of the gold nanoparticles, the position of the LSP absorption peak could be simulated with good agreement to the data.
The analytic model helps to understand the optical properties of metal nanoparticles in an inhomogeneous environment.
The second part of this work discusses the applicability of PAzo/PAH and dye-doped PSS/PAH polyelectrolyte multilayers as transducers to generate hypersound pulses. The generated strain pulses were detected by time-domain Brillouin scattering (TDBS) using a pump-probe laser setup. Transducer layers made of polyelectrolytes were compared qualitatively to common aluminum transducers in terms of measured TDBS signal amplitude, degradation due to laser excitation, and sample preparation.
The measurements proved that fast and easy prepared polyelectrolyte transducers provided stronger TDBS signals than the aluminum transducer. AFM topography measurements showed a degradation of the polyelectrolyte structures, especially for the PAzo/PAH sample.
To quantify the induced strain, optical barriers were introduced to separate the transducer material from the medium of the hypersound propagation. Difficulties in the sample preparation prohibited a reliable quantification. But the experiments showed that a coating with transparent polyelectrolytes increases the efficiency of aluminum transducers and modifies the excited phonon distribution.
The adoption of polyelectrolytes to the scientific field of picosecond acoustics enables a cheap and fast fabrication of transducer layers on most surfaces. In contrast to aluminum layers the polyelectrolytes are transparent over a wide spectral range. Thus, the strain modulation can be probed from surface and back.
Symbolische Bedeutungen sind für den Erfolg von Marken heutzutage unerlässlich, denn Produkte lassen sich in postmodernen Konsumgesellschaften meist nicht mehr ausschließlich durch funktionale Leistungsunterschiede vom Wettbewerb differenzieren. Vielmehr sollten Marken zudem über einen signifikanten Zusatznutzen verfügen, welcher grundsätzlich sozialpsychologischer Natur ist. Dieser in der Markenpersönlichkeit verdichtete symbolische Kern spricht die zentralen menschlichen Bedürfnisse nach Selbstdefinition und Selbstausdruck an, da Individuen sich als „soziale Tiere“ grundlegend über die Zugehörigkeit zu sozialen Gruppen definieren. Einstellungen relevanter Bezugspersonen zum eigenen Selbstbild sind fundamental für die persönliche Standortbestimmung. Genauso leiten Konsumenten symbolische Markenbedeutungen von ihren Bezugsgruppen ab. Individuen evaluieren demnach permanent, inwiefern die wahrgenommene Markenpersönlichkeit zum aktuellen bzw. angestrebten Selbstkonzept passt. Diese dargestellten Phänomene unterliegen dem kulturellen Einfluss der jeweiligen Gesellschaft, in der sie sich herausbilden. Die symbolischen Bedeutungen von Selbstbildern und Marken formen sich also zwischen Kulturen bspw. unter unterschiedlich stark geartetem sozialem Einfluss.
Die Untersuchung geht demnach der Frage auf den Grund, inwiefern die soziale Umgebung Einfluss auf die Wahrnehmung symbolischer Markenaspekte und deren wahrgenommener Kongruenz zum Selbstkonzept von Konsumenten ausübt. Darüber hinaus eruiert der Verfasser intensiv, ob und in welchem Umfang die Empfänglichkeit für die verschiedenen Facetten sozialen Einflusses von der Enkulturation des Konsumenten abhängt.
Es werden somit Forderungen aus Marketing- und Konsumentenverhaltensforschung adressiert, wonach die sozialen sowie die kulturellen Einflusskomponenten stärker zu berücksichtigen sind, um ein vollständigeres Bild von Konsumentscheidungen zu erlangen.
Die zahlreichen theoretischen und empirischen Erkenntnisse der Studie weisen auf wichtige Implikationen für die intra- und interkulturelle Segmentierung von Zielgruppen hin. Empfehlungen für die strategische Positionierung von symbolischen Markenkernen und deren Kommunikation werden ebenfalls geliefert.
Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können.
Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt.
Aufgrund ihrer potenziell gesundheitsfördernden Wirkung sind die polyphenolischen Isoflavone für die menschliche Ernährung von großem Interesse. Eine Vielzahl an experimentellen und epidemiologischen Studien zeigen für die in Soja enthaltenen Isoflavone Daidzein und Genistein eine präventive Wirkung bezüglich hormon-abhängiger und altersbedingter Erkrankungen, wie Brust- und Prostatakrebs, Osteoporose, Herz-Kreislauf-Erkrankungen sowie des menopausalen Syndroms. Die Metabolisierung und Bioaktivierung dieser sekundären Pflanzenstoffe durch die humane intestinale Darmmikrobiota ist individuell unterschiedlich. Nur in einem geringen Teil der westlichen Bevölkerung wird der Daidzein-Metabolit Equol durch spezifische Darmbakterien gebildet. Ein isoliertes Equol-produzierendes Bakterium des menschlichen Darmtrakts ist Slackia isoflavoniconvertens. Anhand dieser Spezies sollten die bislang unbekannten, an der Umsetzung von Daidzein und Genistein beteiligten Enzyme identifiziert und charakterisiert werden.
Fermentationsexperimente mit S. isoflavoniconvertens zeigten, dass die Gene der Daidzein und Genistein-umsetzenden Enzyme nicht konstitutiv exprimiert werden, sondern induziert werden müssen. Mit Hilfe der zweidimensionalen differentiellen Gelelektrophorese wurden sechs Proteine detektiert, welche in einer S. isoflavoniconvertens-Kultur in Anwesenheit von Daidzein induziert wurden. Auf Grundlage einzelner Peptidsequenzen erfolgte die Sequenzierung eines Genkomplexes mit den in gleicher Orientierung angeordneten Genen der durch Daidzein induzierten Proteine. Sequenzvergleiche identifizierten zudem äquivalente Genprodukte zu den Proteinen von S. isoflavoniconvertens in anderen Equolproduzierenden Bakterien. Nach der heterologen Expression in Escherichia coli wurden drei dieser Gene durch enzymatische Aktivitätstests als Daidzein-Reduktase (DZNR), Dihydrodaidzein-Reduktase (DHDR) und Tetrahydrodaidzein-Reduktase (THDR) identifiziert. Die Kombination der E. coli-Zellextrakte führte zur vollständigen Umsetzung von Daidzein über Dihydrodaidzein zu Equol. Neben Daidzein setzte die DZNR auch Genistein zu Dihydrogenistein um. Dies erfolgte mit einer größeren Umsatzgeschwindigkeit im Vergleich zur Reduktion von Daidzein zu Dihydrodaidzein. Enzymatische Aktivitätstests mit dem Zellextrakt von S. isoflavoniconvertens zeigten ebenfalls eine schnellere Umsetzung von Genistein. Die Kombination der rekombinanten DHDR und THDR führte zur Umsetzung von Dihydrodaidzein zu Equol. Der korrespondierende Metabolit 5-Hydroxyequol konnte als Endprodukt des Genistein-Metabolismus nicht detektiert werden. Zur Reinigung der drei identifizierten Reduktasen wurden diese genetisch an ein Strep-tag fusioniert und mittels Affinitätschromatographie gereinigt. Die übrigen durch Daidzein induzierten Proteine IfcA, IfcBC und IfcE wurden ebenfalls in E. coli exprimiert und als Strep-Fusionsproteine gereinigt. Vergleichende Aktivitätstests identifizierten das induzierte Protein IfcA als Dihydrodaidzein-Racemase. Diese katalysierte die Umsetzung des (R)- und (S)-Enantiomers von Dihydrodaidzein und Dihydrogenistein zum korrespondierenden Racemat. Neben dem Elektronentransfer-Flavoprotein IfcBC wurden auch die THDR, DZNR und IfcE als FAD-haltige Flavoproteine identifiziert. Zudem handelte es sich bei IfcE um ein Eisen-Schwefel-Protein. Nach Induktion der für die Daidzein-Umsetzung kodierenden Gene wurden mehrere verschieden lange mRNA-Transkripte gebildet. Dies zeigte, dass die Transkription des durch Daidzein induzierten Genkomplexes in S. isoflavoniconvertens nicht in Form eines einzelnen Operonsystems erfolgte.
Auf Grundlage der identifizierten Daidzein-umsetzenden Enzyme kann der Mechanismus der bakteriellen Umsetzung von Isoflavonen durch S. isoflavoniconvertens eingehend erforscht werden. Die ermittelten Gensequenzen der durch Daidzein induzierten Proteine sowie die korrespondierenden Gene weiterer Equol-produzierender Bakterien bieten zudem die Möglichkeit der mikrobiellen Metagenomanalyse im humanen Darmtrakt.
Die Populärkultur hat mit der Sitcom ein eigentümliches Genre im Fernsehen etabliert. Während Fernsehserien oft hinausblicken in jene Bereiche, die sich zum Teil drastisch von der Lebenswelt des Zuschauers unterscheiden, widersetzt sich die Sitcom seit über einem
halben Jahrhundert dieser Blickrichtung. Stattdessen lenkt sie die populärkulturelle Aufmerksamkeit auf Themen, die diesseits unseres
lebensweltlichen Horizonts verortet sind und liefert Alltagsbeschreibungen in pointierter Form. Damit bündelt sie eine Fülle von gesellschaftlichen Relevanzen und situiert sie dort, wo sie zugleich ihr Publikum findet: zu Hause, in den eigenen vier Wänden.
Situation Comedies erweisen sich nicht nur deswegen als soziologische Erkenntnismittel, die – gerade weil es sich bei ihnen um Wirklichkeitskonstruktionen zweiter Ordnung handelt – normativ aufgeladene Bilder des Alltags zeigen. Im Genre der Sitcom wird dem Alltag als Sujet gleichsam ein medialer Ort innerhalb der Populärkultur zugewiesen.
Die damit einhergehenden soziologischen und medialen Facetten ergründet die vorliegende Studie – als erste deutschsprachige Monografie zu dem Thema – im Hinblick auf verschiedene Topoi wissenssoziologisch und hermeneutisch am Beispiel ausgewählter Sitcoms der zurückliegenden 20 Jahre. Als beeindruckend erweisen sich hierbei die tiefgreifenden und bildhaften Analysen der Sitcoms und ihre Rückbindungen an wissens-, kultur- und allgemeinsoziologische Erkenntnisse. Die Sitcom erscheint als Unter-haltungsformat, das nicht nur Alltagsgeschichten erzählt, sondern die Produktions- und Rezeptionsbedingungen dieser Geschichten immer auch miterzählt. Es handelt sich mithin um mediale Artefakte, die gleichsam als unterhaltsame Mittel gesellschaftlicher Wahrnehmung und medialer Selbstwahrnehmung auftreten.
Angelegt als qualitative Studie an der Schnittstelle von Medien- und Sozialwis-senschaften, fügt das Buch dem gegenwärtigen Diskurs um Populärkultur, Fernsehserien und Kulturwissenschaften eine soziologisch fundierte Perspektive hinzu, die für Sozial- und Medienwissenschaftler ebenso anregend ist wie für jene, die mit besonderem Augenmerk auf die gegenwärtige akademische Rezeption von TV-Serien schauen – kenntnisreich dargelegt in einer klaren und zugänglichen Sprache
Rhythm is a temporal and systematic organization of acoustic events in terms of prominence, timing and grouping, helping to structure our most basic experiences, such as body movement, music and speech. In speech, rhythm groups auditory events, e.g., sounds and pauses, together into words, making their boundaries acoustically prominent and aiding word segmentation and recognition by the hearer. After word recognition, the hearer is able to retrieve word meaning form his mental lexicon, integrating it with information from other linguistic domains, such as semantics, syntax and pragmatics, until comprehension is achieved. The importance of speech rhythm, however, is not restricted to word segmentation and recognition only. Beyond the word level rhythm continues to operate as an organization device, interacting with different linguistic domains, such as syntax and semantics, and grouping words into larger prosodic constituents, organized in a prosodic hierarchy. This dissertation investigates the function of speech rhythm as a sentence segmentation device during syntactic ambiguity processing, possible limitations on its use, i.e., in the context of second language processing, and its transferability as cognitive skill to the music domain.
During the last two decades, instability training devices have become a popular means in athletic training and rehabilitation of mimicking unstable surfaces during movements like vertical jumps. Of note, under unstable conditions, trunk muscles seem to have a stabilizing function during exercise to facilitate the transfer of torques and angular momentum between the lower and upper extremities. The present thesis addresses the acute effects of surface instability on performance during jump-landing tasks. Additionally, the long-term effects (i.e., training) of surface instability were examined with a focus on the role of the trunk in athletic performance/physical fitness.
Healthy adolescent, and young adult subjects participated in three cross-sectional and one longitudinal study, respectively. Performance in jump-landing tasks on stable and unstable surfaces was assessed by means of a ground reaction force plate. Trunk muscle strength (TMS) was determined using an isokinetic device or the Bourban TMS test. Physical fitness was quantified by standing long jump, sprint, stand-and-reach, jumping sideways, Emery balance, and Y balance test on stable surfaces. In addition, activity of selected trunk and leg muscles and lower limb kinematics were recorded during jump-landing tasks.
When performing jump-landing tasks on unstable compared to stable surfaces, jump performance and leg muscle activity were significantly lower. Moreover, significantly smaller knee flexion angles and higher knee valgus angles were observed when jumping and landing on unstable compared to stable conditions and in women compared to men. Significant but small associations were found between behavioral and neuromuscular data, irrespective of surface condition. Core strength training on stable as well as on unstable surfaces significantly improved TMS, balance and coordination.
The findings of the present thesis imply that stable rather than unstable surfaces provide sufficient training stimuli during jump exercises (i.e., plyometrics). Additionally, knee motion strategy during plyometrics appears to be modified by surface instability and sex. Of note, irrespective of surface condition, trunk muscles only play a minor role for leg muscle performance/activity during jump exercises. Moreover, when implemented in strength training programs (i.e., core strength training), there is no advantage in using instability training devices compared to stable surfaces in terms of enhancement of athletic performance.
Function by structure
(2015)
Forcing Earth’s sea level
(2015)
Italien und Deutschland sind zwei europäische Länder, welche im gemeinsamen Bankenmarkt und Währungsraum sehr unterschiedliche Bankensysteme repräsentieren. In Italien herrschen Privatbanken und der soziale Auftrag wird von privaten Bankenstiftungen umgesetzt. In Deutschland wird dagegen diese Funktion vor allem durch den öffentlichen Auftrag von öffentlich-rechtlichen Instituten erfüllt. Vor dem Hintergrund der dramatischen Ereignisse der letzten Finanzkrise und der darauffolgenden Neuinterpretation der Rolle von Finanzmärkten haben die Ansprüche verschiedener Stakeholder-Gruppen an das Bankgeschäft sowie deren Erfüllung an Aktualität gewonnen. Nach einer theoretisch-deduktiven und -induktiven Einführung in die Thematik des Stakeholder-Banking und ihrer heutigen Regelung wird eine qualitative Kennzahlenanalyse des deutschen und italienischen Bankenmarktes durchgeführt. Weiterhin wird ein theoretisches Modell für die eigentumsspezifische Differenzierung der Zinsmarge entwickelt und dessen Lösung anhand einer Querschnittsdatenanalyse empirisch überprüft. Die Ergebnisse weisen auf die Wichtigkeit einer ausreichenden Regulierung als Voraussetzung für eine unverzerrte Erfüllung der Stakeholder-Ansprüche hin. Es ist dabei besonders wichtig, dass das Management von Stakeholder-Banken die Leistung für die Stakeholder und den Beitrag zur sozialen Wohlfahrt offenlegt.
Exzentrik und Bürgertum
(2015)
Es wird eine verzweigte Intellektuellen- und Ideengeschichte um 1900 aufgeschlagen. Der Sozialphilosoph – heute aber vor allem als Schwiegersohn Wagners, Bayreuther Ideologe und Vordenker Hitlers bekannte – Chamberlain pflegte intensive Beziehungen zu jüdischen Intellektuellen. Erstaunliche Konstellationen zwischen Rassentheorie, Kulturreform, Kunst und Wissenschaft werden in einer Zeit lebendig, in der sich antisemitische und zionistische Anschauungen konsolidierten, revolutionär Konservative auf avantgardistische Künstler trafen und sich reformbewegte Sonnenanbeter gleichzeitig links- und rechtspopulistisch orientierten.
Kritische Untersuchungen zu Chamberlain und Persönlichkeiten jüdischer Herkunft sind ein Desiderat. Die Analyse und Auswertung dieser unbekannten Korrespondenzen und Hintergründe zielen in den Kernbereich deutsch-jüdischer Forschung. Das Buch zeigt Chamberlain, der in der kulturellen Szene Wiens und Bayreuths zwischen 1890 und 1920 eine Schlüsselfigur darstellt, im feingeistigen Austausch mit jüdischen Intellektuellen wie Karl Kraus, Walther Rathenau, Maximilian Harden, Otto Weininger und Martin Buber.
Es werden ideologische Verschränkungen in der Moderne und daraus resultierende Verhaltensmuster herausragender Persönlichkeiten aufgedeckt, die in Bezug auf antisemitische Verkrümmungen und sogenannten jüdischen Selbsthass eine lange Vorgeschichte des »Dritten Reiches« belegen.
The main focus of the present thesis was to investigate the stabilization ability of poly(ionic liquid)s (PILs) in several examples as well as develop novel chemical structures and synthetic routes of PILs. The performed research can be specifically divided into three parts that include synthesis and application of hybrid material composed of PIL and cellulose nanofibers (CNFs), thiazolium-containing PILs, and main-chain imidazolium-type PILs.
In the first chapter, a vinylimidazolium-type IL was polymerized in water in the presence of CNFs resulting in the in situ electrostatic grafting of polymeric chains onto the surface of CNFs. The synthesized hybrid material merged advantages of its two components, that is, superior mechanical strength of CNFs and anion dependent solution properties of PILs. In contrast to unmodified CNFs, the hybrid could be stabilized and processed in organic solvents enabling its application as reinforcing agent for porous polyelectrolyte membranes.
In the second part, PILs and ionic polymers containing two types of thiazolium repeating units were synthesized. Such polymers displayed counterion dependent thermal stability and solubility in organic solvents of various dielectric constants. This new class of PILs was tested as stabilizers and phase transfer agents for carbon nanotubes in aqueous and organic media, and as binder materials to disperse electroactive powders and carbon additives in solid electrode in lithium-ion batteries. The incorporation of S and N atoms into the polymeric structures make such PILs also potential precursors for S, N - co-doped carbons.
In the last chapter, reactants originating from biomass were successfully harnessed to synthesize main-chain imidazolium-type PILs. An imidazolium-type diester IL obtained via a modified Debus-Radziszewski reaction underwent transesterification with diol in a polycondensation reaction. This yielded a polyester-type PIL which CO2 sorption properties were investigated. In the next step, the modified Debus-Radziszewski reaction was further applied to synthesize main-chain PILs according to a convenient, one-step protocol, using water as a green solvent and simple organic molecules as reagents. Depending on the structure of the employed diamine, the synthesized PILs after anion exchange showed superior thermal stability with unusually high carbonization yields.
Overall, the outcome of these studies will actively contribute to the current research on PILs by introducing novel PIL chemical structures, improved synthetic routes, and new examples of stabilized materials. The synthesis of main-chain imidazolium-type PILs by a modified Debus-Radziszewski reaction is of a special interest for the future work on porous ionic liquid networks as well as colloidal PIL nanoparticles.
Der Mensch in der Moderne lebt in einem Spannungsverhältnis zwischen all dem, was nun menschenmöglich erscheint und dem, was er als Einzelner, aufgrund seines beschränkten Kräftehaushalts, zu leisten vermag. Die notwendige Spezialisierung in einem beschränkten Feld schließt ihn, wie Max Weber es in »Wissenschaft als Beruf« darstellt, von vielen anderen Bereichen aus. Besonders eklatant wird dies in der Zeit der Wende vom 19. zum 20. Jahrhundert empfunden, welche die verschiedensten Versuche hervorbringt, Synthesen zwischen den ausdifferenzierten Wissensgebieten herzustellen. Einen besonderen Stellenwert hat hier das Wissen der Naturwissenschaftler, auf welche noch der materialistische und positivistische Optimismus des 19. Jahrhunderts wirkt.
An den Autobiographien des spanischen Histologen Santiago Ramón y Cajal (1852-1934) und des deutschen Chemikers Wilhelm Ostwald (1853-1932) zeigt sich exemplarisch, wie naturwissenschaftliche Spezialisten als Autoren auf dieses Spannungsverhältnis reagieren. In drei Kapiteln führt die literaturwissenschaftliche Untersuchung vor, wie die Autoren sprachliche Formen aus ihrer Spezialisierung entlehnen und für die Darstellung des eigenen Lebens nutzen. Historisch führt die Lektüre zu dem Schluss, dass in diesen Texten eine Verschiebung des Positivismus aus der Philosophie in die Autobiographik stattfindet.
Systematisch stellt der im Band entwickelte Begriff des biographischen Lebenswissens einen Versuch dar, das Leben des Einzelnen für die Sinngebung im Text starkzumachen, ohne in Biographismus oder ein Konzept starker Autorschaft zurückzufallen.
Innerhalb der EU wird die Fusionskontrolle auf zwei vertikal nachgelagerten Ebenen durchgeführt, der europäischen und der nationalen Instanz. Da beide Ebenen nicht unverbunden sind, ergibt sich ein mehrdimensionales Kompetenzproblem. Die Fusionskontrollkompetenzen sind vertikal (europäische versus mitgliedstaatliche Ebene) und horizontal (mitgliedstaatliche Ebene) abgegrenzt. Während auf vertikaler Ebene konkurrierende Zuständigkeiten ausgeschlossen sind, sind horizontal Überlappungen möglich.
Die Arbeit beschäftigt sich mit Konflikten bei der Abgrenzung von Fusionskontrollkompetenzen. Zudem wird ein Alternativmodell erarbeitet, das dem bestehenden System aus ökonomischer Perspektive überlegen ist.
Was bleibt vom Konvent als Methode Ausgehend von der schwer greifbaren Wirkung des Zukunftskonvents von Brüssel geht das vorliegende Buch der Frage nach, was die EU von der Konventsmethode erwarten kann. Dazu wird der Brüsseler Konvent als Bestandteil eines föderalen Konstitutionalisierungsprozesses charakterisiert und mit dem Prototyp - dem US-Verfassungskonvent von Philadelphia - verglichen. Die vorliegende Arbeit nimmt damit erstmals einen strukturierten Vergleich der Konvente von Philadelphia (1787) und Brüssel (2002/03) aus politiktheoretischer Perspektive vor.
Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance.
This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection.
In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models,
understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques.
Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten?
(2015)
Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben.
Water resources from Central Asia’s mountain regions have a high relevance for the water supply of the water scarce lowlands. A good understanding of the water cycle in these mountain regions is therefore needed to develop water management strategies. Hydrological modeling helps to improve our knowledge of the regional water cycle, and it can be used to gain a better understanding of past changes or estimate future hydrologic changes in view of projected changes in climate. However, due to the scarcity of hydrometeorological data, hydrological modeling for mountain regions in Central Asia involves large uncertainties.
Addressing this problem, the first aim of this thesis was to develop hydrological modeling approaches that can increase the credibility of hydrological models in data sparse mountain regions. This was achieved by using additional data from remote sensing and atmospheric modeling. It was investigated whether spatial patterns from downscaled reanalysis data can be used for the interpolation of station-based precipitation data. This approach was compared to other precipitation estimates using a hydrologic evaluation based on hydrological modeling and a comparison of simulated and observed discharge, which demonstrated a generally good performance of this method. The study further investigated the value of satellite-derived snow cover data for model calibration. Trade-offs of good model performance in terms of discharge and snow cover were explicitly evaluated using a multiobjective optimization algorithm, and the results were contrasted with single-objective calibration and Monte Carlo simulations. The study clearly shows that the additional use of snow cover data improved the internal consistency of the hydrological model. In this context, it was further investigated for the first time how many snow cover scenes were required for hydrological model calibration.
The second aim of this thesis was the application of the hydrological model in order to investigate the causes of observed streamflow increases in two headwater catchments of the Tarim River over the recent decades. This simulation-based approach for trend attribution was complemented by a data-based approach. The hydrological model was calibrated to discharge and glacier mass balance data and considered changes in glacier geometry over time. The results show that in the catchment with a lower glacierization, increasing precipitation and temperature both contributed to the streamflow increases, while in the catchment with a stronger glacierization, increasing temperatures were identified as the dominant driver.
Most of the baryonic matter in the Universe resides in a diffuse gaseous phase in-between galaxies consisting mostly of hydrogen and helium. This intergalactic medium (IGM) is distributed in large-scale filaments as part of the overall cosmic web. The luminous extragalactic objects that we can observe today, such as galaxies and quasars, are surrounded by the IGM in the most dense regions within the cosmic web. The radiation of these objects contributes to the so-called ultraviolet background (UVB) which keeps the IGM highly ionized ever since the epoch of reionization.
Measuring the amount of absorption due to intergalactic neutral hydrogen (HI) against extragalactic background sources is a very useful tool to constrain the energy input of ionizing sources into the IGM. Observations suggest that the HI Lyman-alpha effective optical depth, τ_eff, decreases with decreasing redshift, which is primarily due to the expansion of the Universe. However, some studies find a smaller value of the effective optical depth than expected at the specific redshift z~3.2, possibly related to the complete reionization of helium in the IGM and a hardening of the UVB. The detection and possible cause of a decrease in τ_eff at z~3.2 is controversially debated in the literature and the observed features need further explanation.
To better understand the properties of the mean absorption at high redshift and to provide an answer for whether the detection of a τ_eff feature is real we study 13 high-resolution, high signal-to-noise ratio quasar spectra observed with the Ultraviolet and Visual Echelle Spectrograph (UVES) at the Very Large Telescope (VLT). The redshift evolution of the effective optical depth, τ_eff(z), is measured in the redshift range 2.7≤z≤3.6. The influence of metal absorption features is removed by performing a comprehensive absorption-line-fitting procedure.
In the first part of the thesis, a line-parameter analysis of the column density, N, and Doppler parameter, b, of ≈7500 individually fitted absorption lines is performed. The results are in good agreement with findings from previous surveys.
The second (main) part of this thesis deals with the analysis of the redshift evolution of the effective optical depth. The τ_eff measurements vary around the empirical power law τ_eff(z)~(1+z)^(γ+1) with γ=2.09±0.52. The same analysis as for the observed spectra is performed on synthetic absorption spectra. From a comparison between observed and synthetic spectral data it can be inferred that the uncertainties of the τ_eff values are likely underestimated and that the scatter is probably caused by high-column-density absorbers with column densities in the range 15≤logN≤17. In the real Universe, such absorbers are rarely observed, however. Hence, the difference in τ_eff from different observational data sets and absorption studies is most likely caused by cosmic variance. If, alternatively, the disagreement between such data is a result of an too optimistic estimate of the (systematic) errors, it is also possible that all τ_eff measurements agree with a smooth evolution within the investigated redshift range. To explore in detail the different analysis techniques of previous studies an extensive literature comparison to the results of this work is presented in this thesis.
Although a final explanation for the occurrence of the τ_eff deviation in different studies at z~3.2 cannot be given here, our study, which represents the most detailed line-fitting analysis of its kind performed at the investigated redshifts so far, represents another important benchmark for the characterization of the HI Ly-alpha effective optical depth at high redshift and its indicated unusual behavior at z~3.2.
Die kumulative Dissertation zur Projektdidaktik trägt den Titel „Von der Konzeption zur Praxis: Zur Entwicklung der Projektdidaktik am Oberstufen-Kolleg Bielefeld und ihre Impulsgebung und Modellbildung für das deutsche Regelschulwesen“. Die Dissertation versteht sich als beispielgebende Umsetzung und Implementierung der Projektdidaktik für das Regelschulsystem. Auf der Basis von 22 bereits erschienenen Publikationen und einer Monographie werden mit fünf methodischen Zugriffen (bildungshistorisch, dichte Beschreibung, Aktionsforschung, empirische Untersuchung an Regelschulen und Implementierungsforschung, s. Kapitel 1) in sieben Kapiteln (2- 8) des systematischen ersten Teils die Entwicklung der Unterrichtsform Projektunterricht in der BRD, Projektbegriff und Weiterentwicklung des Konzepts, Methodik, Bewertung sowie Organisation des Projektunterrichts am Oberstufen-Kolleg, der Versuchsschule des Landes NRW, in Auseinandersetzung mit der allgemeinen Projektdidaktik dargestellt sowie Formen und Verfahren der erprobten Implementierung in das Regelschulsystem präsentiert.
Ein Schlusskapitel (9) fasst die Ergebnisse zusammen. Im umfangreichen Anhang finden sich verschiedene Publikationen zu Aspekten der Projektdidaktik, auf die der systematische Teil jeweils Bezug nimmt.
Die bildungshistorische Analyse (Kapitel 2) untersucht das Verhältnis von pädagogischer Theorie und schulischer Praxis, die weder in Literatur und noch in Praxis genügend verbunden sind. Nach der Rezeption der gut erforschten Konzeptgeschichte pädagogischer Theorie in Anlehnung an Dewey und Kilpatrick wird durch eine erste Analyse der „Praxisgeschichte“ des Projektunterrichts auf ein Forschungsdesiderat hingewiesen, dies auch um die Projektpraxis am Oberstufen-Kolleg in Beziehung zu der in den Regelschulen setzen zu können. Dabei wurden seit 1975 sechs Entwicklungslinien herausgearbeitet: Start, Krise und ihre Überwindung durch Öffnung und Vernetzung (1975-1990), didaktisch-methodische Differenzierung und Notwendigkeit von Professionalisierung (ab 1990) sowie Schulentwicklung und Institutionalisierung (seit Ende der 1990er Jahre).
Projektunterricht besteht am Oberstufen-Kolleg seit der Gründung 1974 als fest eingerichtete Unterrichtsform (seit 2002 zweimal jährlich 2 Wochen) mit dem Ziel, für das Regelschulsystem die Projektdidaktik zu erproben und weiterzuentwickeln. Als wichtige praxisorientierte Ziele wurden ein praxistauglicher Begriff, Bildungswert und Kompetenzen im Unterschied zum Lehrgang herausgearbeitet (z.B. handlungs- und anwendungsorientierte Kompetenzen) und das Verhältnis zum Fachunterricht bestimmt (Kapitel 3). Letzteres wurde am Beispiel des Fachs Geschichte entwickelt und exemplarisch in Formen der Verzahnung dargestellt (Kapitel 6).
Auch für die methodische Dimension galt, die allgemeine Projektdidaktik weiterzuentwickeln durch ihre Abgrenzung zu anderen Methoden der Öffnung von Schule und Unterricht (Kapitel 4). Dabei wurde als zentrales methodisches Prinzip die Handlungsorientierung bestimmt sowie sieben Phasen und jeweilige Handlungsschritte festgelegt. Besonders Planung und Rollenwechsel bedürfen dabei besonderer Beachtung, um Selbsttätigkeit der ProjektteilnehmerInnen zu erreichen. Verschiedene methodische „Etüden“ ( z.B. Gruppenarbeit, recherchieren, sich öffentlich verhalten), handlungsorientierte Vorformen und projektorientiertes Arbeiten sollten die Vollform Projektunterricht vorbereiten helfen.
Die Bewertung von Projekten (Kapitel 5) stellt andere Anforderungen als der Lehrgang, weil sie unterschiedliche Bewertungsebenen (z.B. Prozessbedeutung, Produktbeurteilung, Gruppenbewertung) umfasst. Dazu sind am Oberstufen-Kolleg andere Bewertungsformen als die Ziffernnote entwickelt worden: z.B. ein „Reflexionsbericht“ als individuelle Rückmeldung von SchülerInnen und LehrerInnen und ein „Zertifikat“ für besondere Leistungen im Projekt.
Zentral für die Entwicklung von Projektunterricht ist jedoch die Organisationsfrage (Kapitel 7). Dazu bedarf es einer Organisationsgruppe Projekt, die die Unterrichtsform didaktisch betreut und in einem Hearing die angemeldeten Projekte berät. Das Oberstufen-Kolleg hat damit eine entwickelte „Projektkultur“ organisatorisch umgesetzt. Für eine empirische Untersuchung an sechs Regelschulen in Ostwestfalen ist dann eine idealtypische Merkmalsliste von schulischer „Projektkultur“ als Untersuchungsinstrument entstanden, das zugleich als Leitlinie für Schulentwicklung im Bereich Projektlernen in den Regelschulen dienen kann. Zu dieser Implementierung (Kapitel 8) wurden Konzepte und Erfahrungen vom Oberstufen-Kolleg für schulinterne und schulexterne Fortbildungsformen sowie eine exemplarische Fortbildungseinheit entwickelt. So konnten in zahlreichen Lehrerfortbildungen durch die Versuchsschule Impulse für das Regelschulsystem gegeben werden.
Die Interaktionen von komplexen Kohlenhydraten und Proteinen sind ubiquitär. Sie spielen wichtige Rollen in vielen physiologischen Prozessen wie Zelladhäsion, Signaltransduktion sowie bei viralen Infektionen. Die molekularen Grundlagen der Interaktion sind noch nicht komplett verstanden. Ein Modellsystem für Kohlenhydrat-Protein-Interaktionen besteht aus Adhäsionsproteinen (Tailspikes) von Bakteriophagen, die komplexe Kohlenhydrate auf bakteriellen Oberflächen (O-Antigen) erkennen. Das Tailspike-Protein (TSP), das in dieser Arbeit betrachtet wurde, stammt aus dem Bakteriophagen 9NA (9NATSP). 9NATSP weist eine hohe strukturelle Homologie zum gut charakterisierten TSP des Phagen P22 (P22TSP) auf, bei einer niedriger sequenzieller Ähnlichkeit. Die Substratspezifitäten beider Tailspikes sind ähnlich mit Ausnahme der Toleranz gegenüber den glucosylierten Formen des O-Antigens. Die Struktur der beiden Tailspikes ist bekannt, sodass sie ein geeignetes System für vergleichende Bindungsstudien darstellen, um die strukturellen Grundlagen für die Unterschiede der Spezifität zu untersuchen.
Im Rahmen dieser Arbeit wurde der ELISA-like tailspike adsorption assay (ELITA) etabliert, um Binderpaare aus TSPs und O-Antigen zu identifizieren. Dabei wurden 9NATSP und P22TSP als Sonden eingesetzt, deren Bindung an die intakten, an die Mikrotiterplatte adsorbierten Bakterien getestet wurde. Beim Test einer Sammlung aus 44 Salmonella-Stämmen wurden Stämme identifiziert, die bindendes O-Antigen exprimieren. Gleichzeitig wurden Unterschiede in der Bindung der beiden TSPs an Salmonella-Stämme mit gleichem O-Serotyp beobachtet. Die Ergebnisse der ELITA-Messung wurden qualitativ durch eine FACS-basierte Bindungsmessung bestätigt. Zusätzlich ermöglichte die FACS-Messung bei Stämmen, die teilweise modifizierte O-Antigene herstellen, den Anteil an Zellen mit und ohne Modifikation zu erfassen.
Die Oberflächenplasmonresonanz (SPR)-basierten Interaktionsmessungen wurden eingesetzt, um Bindungsaffinitäten für eine TSP-O-Antigen Kombination zu quantifizieren. Dafür wurden zwei Methoden getestet, um die Oligosaccharide auf einem SPR-Chip zu immobilisieren. Zum einen wurden die enzymatisch hergestellten O-Antigenfragmente mit einem bifunktionalen Oxaminadapter derivatisiert, der eine primäre Aminogruppe für die Immobilisierung bereitstellt. Ein Versuch, diese Oligosaccharidfragmente zu immobilisieren, war jedoch nicht erfolgreich. Dagegen wurde das nicht derivatisierte Polysaccharid, bestehend aus repetitivem O-Antigen und einem konservierten Kernsaccharid, erfolgreich auf einem SPR-Chip immobilisiert. Die Immobilisierung wurde durch Interaktionsmessungen mit P22TSP bestätigt. Durch die Immobilisierung des Polysaccharids sind somit quantitative SPR-Bindungsmessungen mit einem polydispersen Interaktionspartner möglich.
Eine Auswahl von Salmonella-Stämmen mit einer ausgeprägt unterschiedlichen Bindung von 9NATSP und P22TSP im ELITA-Testsystem wurde hinsichtlich der Zusammensetzung des O-Antigens mittels HPLC, Kapillargelelektrophorese und MALDI-MS analysiert. Dabei wurden nicht-stöchiometrische Modifikationen der O-Antigene wie Acetylierung und Glucosylierung detektiert. Das Ausmaß der Glucosylierung korrelierte negativ mit der Effizienz der Bindung und des Verdaus durch die beiden TSPs, wobei der negative Effekt bei 9NATSP weniger stark ausgeprägt war als bei P22TSP. Dies stimmt mit den Literaturdaten zu Infektivitätsstudien mit 9NA und P22 überein, die mit Stämmen mit vergleichbaren O-Antigenvarianten durchgeführt wurden. Die Korrelation zwischen der Glucosylierung und Bindungseffizienz konnte strukturell interpretiert werden.
Auf Grundlage der O-Antigenanalysen sowie der Ergebnisse der ELITA- und FACS-Bindungstests wurden die Salmonella-Stämme Brancaster und Kalamu identifiziert, die annähernd quantitativ glucosyliertes O-Antigen exprimieren. Damit eignen sich diese Stämme für weiterführende Studien, um die Zusammenhänge zwischen der Spezifität und der Organisation der Bindestellen der beiden TSPs zu untersuchen.
Die Arbeit geht der Frage nach, wie Innovationen in einer Organisation des öffentlichen Sektors aufgenommen wurden und zu welchen Veränderungen dies führte. Im Vordergrund steht hier nicht die Innovation selbst, sondern vielmehr die Anpassungsmechanismen in der Organisation. Folgende Forschungsfragen wurden dazu gewählt:
1. Wie wurde das Instrument Zielsteuerung bzw. Zielvereinbarung im öffentlichen Sektor eingeführt und in die Managementroutinen integriert?
2. Welche Faktoren führen zu einer Integration der Zielsteuerung in die Managementroutinen?
3. Welche Empfehlungen für die Praxis lassen sich daraus ableiten?
Dazu wurde ein Landesbetrieb in Brandenburg detailliert untersucht und 31 Interviews mit Führungskräften der zweiten und dritten Managementebene geführt. In dieser Organisation wurde im Rahmen der deutschlandweiten Reformbewegung in der öffentlichen Verwaltung das Instrument Zielsteuerung bzw. Zielvereinbarung eingeführt und mit ganz konkreten Erwartungen verbunden. Als Untersuchungseinheit der möglichen Anpassungen und Veränderungen wurde das Konstrukt der Managementroutinen herangezogen, welche als kollektive Handlungsmuster ganz bewusst individuelle Verhaltensweisen ausklammerten.
Die Arbeit konnte eine Reihe von früheren Erkenntnissen bestätigen und zudem nachweisen, dass, entgegen des häufigen Vorurteils, Innovationen aus dem privatwirtschaftlichem Raum doch auch zu positiven Veränderungen in Organisationen der öffentlichen Hand führen können. Es kam hier jedoch nicht zur Entwicklung neuer, sondern zu einer Anpassung der bestehenden Routinen. Auf dieser Basis konnte festgestellt werden, dass ein stufenweiser Einführungsvorgang zunächst auf der Ebene der veränderten Zielvorstellungen der Führungskräfte zum Erfolg führte. Erst nach der Anpassung auf dieser „ostentativen“ Ebene kam es mit etwas Verzögerung zu einer Veränderung auf der Ebene der konkreten Handlungen. Im Hinblick auf die Einflussfaktoren der Innovation konnte festgestellt werden, dass viele Aspekte der Zielsetzungstheorie nach wie vor relevant sind und instabile politische Rahmenbedingungen zu wesentlichen Einschränkungen der Entfaltungsmöglichkeiten der Innovation führen können. Für viele Einflussfaktoren konnten allerdings sowohl positive als auch negative Wirkungen identifiziert werden.
Aminosäuren sind lebensnotwendige Moleküle für alle Organismen. Ihre Erkennung im Körper ermöglicht eine bedarfsgerechte Regulation ihrer Aufnahme und ihrer Verwertung. Welcher Chemosensor für diese Erkennung jedoch hauptverantwortlich ist, ist bisher unklar. In der vorliegenden Arbeit wurde die Rolle der Umamigeschmacksrezeptoruntereinheit Tas1r1 jenseits ihrer gustatorischen Bedeutung für die Aminosäuredetektion in der Mundhöhle untersucht.
In der histologischen Tas1r1-Expressionsanalyse nichtgustatorischer Gewebe der Mauslinie Tas1r1-Cre/ROSA26-tdRFP wurde über die Detektion des Reporterproteins tdRFP die Expression des Tas1r1 in allen untersuchten Geweben (Speiseröhre, Magen, Darm, Bauchspeicheldrüse, Leber, Niere, Muskel- und Fettgewebe, Milz, Thymus, Lymphknoten, Lunge sowie Hoden) nachgewiesen. Mit Ausnahme von Dünndarm und Hoden gelang hierbei der Nachweis erstmals spezifisch auf zellulärer Ebene. Caecum und Lymphknoten wurden zudem neu als Expressionsorte des Tas1r1 identifiziert.
Trotz der beobachteten weiten Verbreitung des Tas1r1 im Organismus – unter anderem auch in Geweben, die für den Proteinstoffwechsel besonders relevant sind – waren im Zuge der durchgeführten Untersuchung potentieller extraoraler Funktionen des Rezeptors durch phänotypische Charakterisierung der Mauslinie Tas1r1-BLiR nur schwache Auswirkungen auf Aminosäurestoffwechsel bzw. Stickstoffhaushalt im Falle eines Tas1r1-Knockouts detektierbar. Während sich Ernährungsverhalten, Gesamtphysiologie, Gewebemorphologie sowie Futterverdaulichkeit unverändert zeigten, war die renale Stickstoffausscheidung bei Tas1r1-Knockout-Mäusen auf eiweißarmer sowie auf eiweißreicher Diät signifikant verringert. Eine Überdeckung der Auswirkungen des Tas1r1-Knockouts aufgrund kompensatorischer Effekte durch den Aminosäuresensor CaSR oder den Peptidsensor Gpr93 war nicht nachweisbar. Es bleibt offen, ob andere Mechanismen oder andere Chemosensoren an einer Kompensation beteiligt sind oder aber Tas1r1 in extraoralem Gewebe andere Funktionen als die der Aminosäuredetektion übernimmt. Unterschiede im extraoralen Expressionsmuster der beiden Umamirezeptor-untereinheiten Tas1r1 und Tasr3 lassen Spekulationen über andere Partner, Liganden und Funktionen zu.
Synchronization of large ensembles of oscillators is an omnipresent phenomenon observed in different fields of science like physics, engineering, life sciences, etc. The most simple setup is that of globally coupled phase oscillators, where all the oscillators contribute to a global field which acts on all oscillators. This formulation of the problem was pioneered by Winfree and Kuramoto. Such a setup gives a possibility for the analysis of these systems in terms of global variables. In this work we describe nontrivial collective dynamics in oscillator populations coupled via mean fields in terms of global variables. We consider problems which cannot be directly reduced to standard Kuramoto and Winfree models.
In the first part of the thesis we adopt a method introduced by Watanabe and Strogatz. The main idea is that the system of identical oscillators of particular type can be described by a low-dimensional system of global equations. This approach enables us to perform a complete analytical analysis for a special but vast set of initial conditions. Furthermore, we show how the approach can be expanded for some nonidentical systems. We apply the Watanabe-Strogatz approach to arrays of Josephson junctions and systems of identical phase oscillators with leader-type coupling.
In the next parts of the thesis we consider the self-consistent mean-field theory method that can be applied to general nonidentical globally coupled systems of oscillators both with or without noise. For considered systems a regime, where the global field rotates uniformly, is the most important one. With the help of this approach such solutions of the self-consistency equation for an arbitrary distribution of frequencies and coupling parameters can be found analytically in the parametric form, both for noise-free and noisy cases.
We apply this method to deterministic Kuramoto-type model with generic coupling and an ensemble of spatially distributed oscillators with leader-type coupling. Furthermore, with the proposed self-consistent approach we fully characterize rotating wave solutions of noisy Kuramoto-type model with generic coupling and an ensemble of noisy oscillators with bi-harmonic coupling.
Whenever possible, a complete analysis of global dynamics is performed and compared with direct numerical simulations of large populations.
Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins.
In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA.
Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible.
Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications.
Atmospheric interactions with land surface in the arctic based on regional climate model solutions
(2014)
Patentpools
(2015)
Elisabeth Eppinger erforscht in diesem Buch aktuelle Patentpools, ihre Eigenschaften und alternative Lösungen zur gemeinsamen Nutzung von Patenten. Patentpools haben das Potenzial, Patentblockaden zu lösen und Innovationen zu fördern. Die Autorin diskutiert die Rolle von Patentkooperationen im Rahmen des strategischen Technologie- und Innovationsmanagements sowie der Innovationsförderung. Es wird gezeigt, welche strukturellen Faktoren, Motive und Charakteristika von Akteuren unterschiedliche Patentpools begünstigen
Anfang der 1970er-Jahre engagierte sich eine Gruppe junger DDR-Autorinnen und Autoren für eine kritische, öffentliche Auseinandersetzung mit den Widersprüchen des realsozialistischen Alltags. Klaus Schlesinger (1937 2001) war neben Ulrich Plenzdorf und Jurek Becker einer ihrer profiliertesten Akteure. In dem vorliegenden Buch verfolgt Jan Kostka dessen künstlerische Entwicklung, indem er jene Texte und Bücher interpretiert, die Schlesinger bis zu seiner Übersiedlung nach Westberlin geschrieben hatte. Dabei gibt er Einblicke in das literarische Leben Berlins, in journalistische Initiativen und verlagspolitische Strategien aber auch in die westliche Rezeption der DDR-Literatur. Den zum Teil unveröffentlichten Nachlass Schlesingers aufarbeitend, vermittelt Jan Kostka das spezifische Literaturverständnis des Autors: die Benennung und Zuspitzung gesellschaftlicher Konfliktlagen, ohne diese durch vorschnelle Antworten und selbstgewisse Schuldzuweisungen abzuschwächen.
Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT).
Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and
demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP.
We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies.
Die Kirche Saint-Lazare in Autun wurde zu Beginn des 12. Jahrhunderts für die Reliquien des Lazarus von Bethanien erbaut. Das Bildprogramm der neuen Kirche musste sowohl den Ansprüchen und Interessen der Auftraggeber entsprechen als auch auf den Patron der Kirche Bezug nehmen und dem Sonderstatus als Pilgerkirche gerecht werden. Die Autorin untersucht, ob sich die einzelnen Bilder auch einem theologisch eher ungeschulten Betrachter erschließen und welche Bedeutung die Bewegung des Betrachters im Kirchenraum hat. In der Kombination von intensiver Betrachtung des Einzelbildes und sukzessiver Erfassung des Gebäudeensembles wird ein Wahrnehmungs- und Erkenntnisprozess in Gang gesetzt, der von der Anschauung des Sichtbaren zur inneren Schau führen soll.