Refine
Year of publication
- 2016 (322) (remove)
Document Type
- Doctoral Thesis (322) (remove)
Is part of the Bibliography
- yes (322)
Keywords
- Klimawandel (4)
- climate change (4)
- Blickbewegungen (3)
- Deutschland (3)
- earthquake (3)
- Aggression (2)
- Aphasie (2)
- Avantgarde (2)
- Berlin (2)
- Bodenfeuchte (2)
Institute
- Institut für Biochemie und Biologie (58)
- Institut für Geowissenschaften (37)
- Institut für Chemie (33)
- Institut für Physik und Astronomie (21)
- Institut für Ernährungswissenschaft (19)
- Wirtschaftswissenschaften (19)
- Institut für Informatik und Computational Science (16)
- Historisches Institut (14)
- Sozialwissenschaften (12)
- Department Linguistik (10)
Die vorliegende Arbeit untersucht die Politik der Zentralbankunabhängigkeit (ZBU) am Beispiel der Türkei. Im Mittelpunkt der Arbeit stehen theoretische und empirische Fragen und Probleme, die sich im Zusammenhang mit der ZBU stellen und anhand der türkischen Geldpolitik diskutiert werden. Ein zentrales Ziel der Arbeit besteht darin, zu untersuchen, ob und inwiefern die türkische Zentralbank nach Erlangung der de jure institutionellen Unabhängigkeit tatsächlich als unabhängig und entpolitisiert eingestuft werden kann. Um diese Forschungsfrage zu beantworten, werden die institutionellen Bedingungen, die Ziele und die Regeln, nach denen sich die türkische Geldpolitik richtet, geklärt. Anschließend wird empirisch überprüft, ob die geldpolitische Praxis der CBRT sich an dem offiziell vorgegebenen Regelwerk orientiert. Die Hauptthese dieser Arbeit lautet, dass die formelle Unabhängigkeit der CBRT und die regelorientierte Geldpolitik nicht mit einer Entpolitisierung der Geldpolitik in der Türkei gleichzusetzen ist. Als Alternative schlägt die vorliegende Studie vor, den institutionellen Status der CBRT als einen der relativen Autonomie zu untersuchen. Auch eine de jure unabhängige Zentralbank kann sich nicht von politischen Eingriffen abkoppeln, wie das Fallbeispiel Türkei zeigen wird.
Die vorliegende Untersuchung verfolgt das Ziel, kulturelle und religiöse Aspekte der Erneuerung jüdischen Lebens in Berlin seit 1989 zu erforschen. Die Entwicklungen der jüdischen Gemeinschaft in der Hauptstadt seit dem Fall der Mauer und dem Zusammenbruch der Sowjetunion führen zur Wiederannäherung eines Teils der jüdischen Bevölkerung in Deutschland an die eigene Kultur, Religion und Geschichte. Dabei kommt die Pluralität der kulturellen, literarischen und religiösen Ausdrucksformen der jüdischen Identitäten zum Vorschein. Die Arbeit verdeutlicht diese in Berlin nach 1989 einsetzende kulturelle und religiöse „Renaissance“. Vier wichtige Punkte kennzeichnen das jüdische Leben in Berlin nach 1989. Erstens gewinnt Deutschland seit der Wiedervereinigung eine neue Rolle als mögliches Einwanderungsland für Juden. Vor allem mit der massiven jüdischen Einwanderung aus den Staaten der ehemaligen Sowjetunion seit den 1990er Jahren wird Deutschland allmählich als wichtiges Zentrum in der europäischen Diaspora anerkannt. Zweitens bleibt zwar die Shoah tief verankert im Gedächtnis der jüdischen Gemeinschaft; die meisten Kinder oder Enkelkinder von Überlebenden der Shoah weigern sich jedoch, ihre jüdische Identität exklusiv durch die Shoah zu definieren. Sie gründen zur Wiederentdeckung und Forderung ihres kulturellen, religiösen und historischen Erbes jüdische Gruppen und Einrichtungen in Berlin, die in den meisten Fällen alternativ zur Jüdischen Gemeinde entstehen: Künstlergruppen, jüdische Kulturvereine, Konferenzen und Podiumsdiskussionen, religiöse Kongregationen und Lernhäuser. Damit – und dies ist der dritte Punkt – verliert zwar die offizielle Jüdische Gemeinde an Bedeutung als einzige Vertreterin der jüdischen Gemeinschaft Berlins; diese kulturelle und religiöse „Renaissance“ außerhalb der offiziellen Strukturen der Gemeinde bedeutet aber auch eine wachsende Pluralität und Diversifizierung der jüdischen Gemeinschaft in Berlin. Viertens spielt Berlin die Hauptrolle in diesem Prozess. Heute werden viele ehemalige jüdische Orte neu belebt: Synagogen werden wiederentdeckt und renoviert, Denk- und Mahnmale gebaut, Stadtführungen auf der Spur des „jüdischen Berlins“ organisiert, Rabbinerseminare neu gegründet. Die Topographie Berlins bildet auch eine Inspirationsquelle für jüdische (und nichtjüdische) Schriftsteller und Künstler. Die Analyse dieser nach 1989 entstandenen religiösen Initiativen, literarischen Werke und kulturellen Produktionen dient dazu, Aspekte der kulturellen und religiösen „Renaissance“ in Berlin näher zu verdeutlichen.
Investigation of the TCA cycle and glycolytic metabolons and their physiological impacts in plants
(2016)
Der junge Habermas
(2016)
Roman Yos' Untersuchung über die Ursprünge eines der einflussreichsten Werke der jüngeren Geistesgeschichte zeigt auf originelle Weise, wie Jürgen Habermas seine bereits in jungen Jahren ausgeprägten philosophisch-politischen Denkmotive allmählich in die Bahnen eines tragfähigen Systems überführte. Diese Entwicklung lässt sich als ein Lernprozess begreifen, in dessen Verlauf konträre intellektuelle Einflüsse aufeinandertrafen und der aufwändigen Vermittlung bedurften. Yos rekonstruiert die spannungsreiche Entstehung von Habermas‘ Denken aus dem Zusammenhang frühester Schriften und gibt zugleich einen Einblick in deren zeit- und ideengeschichtliche Hintergründe.
Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS.
This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture.
Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems.
The horse is a fascinating animal symbolizing power, beauty, strength and grace. Among all the animal species domesticated the horse had the largest impact on the course of human history due to its importance for warfare and transportation. Studying the process of horse domestication contributes to the knowledge about the history of horses and even of our own species.
Research based on molecular methods has increasingly focused on the genetic basis of horse domestication. Mitochondrial DNA (mtDNA) analyses of modern and ancient horses detected immense maternal diversity, probably due to many mares that contributed to the domestic population. However, mtDNA does not provide an informative phylogeographic structure. In contrast, Y chromosome analyses displayed almost complete uniformity in modern stallions but relatively high diversity in a few ancient horses. Further molecular markers that seem to be well suited to infer the domestication history of horses or genetic and phenotypic changes during this process are loci associated with phenotypic traits.
This doctoral thesis consists of three different parts for which I analyzed various single nucleotide polymorphisms (SNPs) associated with coat color, locomotion or Y chromosomal variation of horses. These SNPs were genotyped in 350 ancient horses from the Chalcolithic (5,000 BC) to the Middle Ages (11th century). The distribution of the samples ranges from China to the Iberian Peninsula and Iceland. By applying multiplexed next-generation sequencing (NGS) I sequenced short amplicons covering the relevant positions: i) eight coat-color-associated mutations in six genes to deduce the coat color phenotype; ii) the so-called ’Gait-keeper’ SNP in the DMRT3 gene to screen for the ability to amble; iii) 16 SNPs previously detected in ancient horses to infer the corresponding haplotype. Based on these data I investigated the occurrence and frequencies of alleles underlying the respective phenotypes as well as Y chromosome haplotypes at different times and regions. Also, selection coefficients for several Y chromosome lineages or phenotypes were estimated.
Concerning coat color differences in ancient horses my work constitutes the most comprehensive study to date. I detected an increase of chestnut horses in the Middle Ages as well as differential selection for spotted and solid phenotypes over time which reflects changing human preferences.
With regard to ambling horses, the corresponding allele was present in medieval English and Icelandic horses. Based on these results I argue that Norse settlers, who frequently invaded parts of Britain, brought ambling individuals to Iceland from the British Isles which can be regarded the origin of this trait. Moreover, these settlers appear to have selected for ambling in Icelandic horses.
Relating to the third trait, the paternal diversity, these findings represent the largest ancient dataset of Y chromosome variation in non-humans. I proved the existence of several Y chromosome haplotypes in early domestic horses. The decline of Y chromosome variation coincides with the movement of nomadic peoples from the Eurasian steppes and later with different breeding practices in the Roman period.
In conclusion, positive selection was estimated for several phenotypes/lineages
in different regions or times which indicates that these were preferred by humans. Furthermore, I could successfully infer the distribution and dispersal of horses in association with human movements and actions. Thereby, a better understanding of the influence of people on the changing appearance and genetic diversity of domestic horses could be gained. My results also emphasize the close relationship of ancient genetics and archeology or history and that only in combination well-founded conclusions can be reached.
Proteins are amphiphilic and adsorb at liquid interfaces. Therefore, they can be efficient stabilizers of foams and emulsions. β-lactoglobulin (BLG) is one of the most widely studied proteins due to its major industrial applications, in particular in food technology.
In the present work, the influence of different bulk concentration, solution pH and ionic strength on the dynamic and equilibrium pressures of BLG adsorbed layers at the solution/tetradecane (W/TD) interface has been investigated. Dynamic interfacial pressure (Π) and interfacial dilational elastic modulus (E’) of BLG solutions for various concentrations at three different pH values of 3, 5 and 7 at a fixed ionic strength of 10 mM and for a selected fixed concentration at three different ionic strengths of 1 mM, 10 mM and 100 mM are measured by Profile Analysis Tensiometer PAT-1 (SINTERFACE Technologies, Germany). A quantitative data analysis requires additional consideration of depletion due to BLG adsorption at the interface at low protein bulk concentrations. This fact makes experiments more efficient when oil drops are studied in the aqueous protein solutions rather than solution drops formed in oil. On the basis of obtained experimental data, concentration dependencies and the effect of solution pH on the protein surface activity was qualitatively analysed. In the presence of 10 mM buffer, we observed that generally the adsorbed amount is increasing with increasing BLG bulk concentration for all three pH values. The adsorption kinetics at pH 5 result in the highest Π values at any time of adsorption while it exhibits a less active behaviour at pH 3.
Since the experimental data have not been in a good agreement with the classical diffusion controlled model due to the conformational changes which occur when the protein molecules get in contact with the hydrophobic oil phase in order to adapt to the interfacial environment, a new theoretical model is proposed here. The adsorption kinetics data were analysed with the newly proposed model, which is the classical diffusion model but modified by assuming an additional change in the surface activity of BLG molecules when adsorbing at the interface. This effect can be expressed through the adsorption activity constant in the corresponding equation of state. The dilational visco-elasticity of the BLG adsorbed interfacial layers is determined from measured dynamic interfacial tensions during sinusoidal drop area variations. The interfacial tension responses to these harmonic drop oscillations are interpreted with the same thermodynamic model which is used for the corresponding adsorption isotherm.
At a selected BLG concentration of 2×10-6 mol/l, the influence of the ionic strength using different buffer concentration of 1, 10 and 100 mM on the interfacial pressure was studied. It is affected weakly at pH 5, whereas it has a strong impact by increasing buffer concentration at pH 3 and 7. In conclusion, the structure formation of BLG adsorbed layer in the early stage of adsorption at the W/TD interface is similar to those of the solution/air (W/A) surface. However, the equation of state at the W/TD interface provides an adsorption activity constant which is almost two orders of magnitude higher than that for the solution/air surface.
At the end of this work, a new experimental tool called Drop and Bubble Micro Manipulator DBMM (SINTERFACE Technologies, Germany) has been introduced to study the stability of protein covered bubbles against coalescence. Among the available protocols the lifetime between the moment of contact and coalescence of two contacting bubble is determined for different BLG concentrations. The adsorbed amount of BLG is determined as a function of time and concentration and correlates with the observed coalescence behaviour of the contacting bubbles.
This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’.
This book provides for an extensive legal analysis of the international drug control system in light of the growing challenges and criticism that this system faces. In the current debate on global drug policy, the central pillars of the international drug control system – the UN Drug Conventions as well as its institutions – are portrayed as outdated, suppressive and seen as an obstacle to necessary changes. The book’s objective is to provide an in-depth and positivist insight into drug control’s present legal framework and thus provide for a better understanding of the normative assumptions upon which drug control is currently based. This is attained by clarifying the objectives of the international drug control system and the premises by which these objectives are to be achieved.
The objective of the current global framework of international drug control is the limitation of drugs to medical and scientific purposes. The meaning of this objective and its concrete implications for States’ parties as well as its problems from the perspective of other regimes of international law, most notably international human rights law, are extensively analysed. Additionally, the book focuses on how the international drug control system attempts to reach the objective of confining drugs to medical and scientific purposes, i.e. by setting up a universal system that exercises a rigid control on drug supply. The consequences of this heavy focus on the reduction of drug supply are outlined, and the book concludes by making suggestions on how the international drug control system could be reformed in the near future in order to better meet the existing challenges.
The analysis occurs from a general international law perspective. It aims to map the international drug control system within a wider context of international law and to understand whether the problems that the international drug control system faces are exemplary for the difficulties that institutionalized systems of global scope face in the twenty-first century.
Ist Unternehmensethik nach angloamerikanischem Vorbild die Antwort auf die Herausforderungen des 21. Jahrhunderts Viele Unternehmen versuchen Corporate Social Responsibility zu etablieren, um den Ansprüchen der Zivilgesellschaft gerecht zu werden. Aber sind Ethik und Verantwortung messbar und skalierbar - und damit wirtschaftlich sinnvoll Hat die Soziale Marktwirtschaft im Zuge der Denationalisierung und Globalisierung ausgedient Ein Vergleich von sozial- und wirtschaftswissenschaftlichen Theorien verschafft Klarheit.
Sport ist heutzutage ein wichtiger Sektor des Arbeitslebens. Arbeitsverträge mit Berufssportlern weichen jedoch von klassischen Arbeitsverträgen in besonderer Weise ab. Der Berufssportler ist in der Ausübung seiner Sportarbeitsleistung zwar freier als andere Arbeitnehmer, aufgrund der physischen und psychischen Belastungen bedarf er aber gleichzeitig einer besonderen Fürsorge durch seinen Arbeitgeber.
Da Gesundheit und Fitness der Berufssportler eine herausgehobene Bedeutung haben, hat der Sportarbeitgeber ein erhöhtes Interesse, das Leben der Sportler auch außerhalb ihrer Kerntätigkeit zu beeinflussen, sei es durch spezielle Ernährungs- oder Trainingspläne oder durch das Verbot, gefährliche Sportarten in der Freizeit zu betreiben.
Aufbauend auf den Grundlagen des allgemeinen Arbeitsrechts untersucht der Verfasser anhand einer Vielzahl von denkbaren Direktionen den Inhalt und die Grenzen des Direktionsrechts im Berufssport. Der Untersuchung liegt die Hauptthese zugrunde, dass das Direktionsrecht im Berufssport aufgrund der Besonderheiten des Sports weiter als im allgemeinen Arbeitsrecht zu fassen ist. Dieses umfassende Direktionsrecht steht dabei in Wechselwirkung zu einer besonderen Fürsorgepflicht des Arbeitgebers. Diese Fürsorgepflicht, die ebenfalls weitreichender als im allgemeinen Arbeitsrecht ist, setzt dem Sportarbeitgeber indes nicht nur Grenzen in der Direktionsrechtsausübung, sondern statuiert darüber hinaus eigenständige Handlungspflichten. Um diese Hauptthese sowie einige Teilfragen nicht nur abstrakt, sondern auch vor dem Hintergrund der sportlichen Praxis rechtlich bewerten zu können, wurde durch den Verfasser Ende des Jahres 2012 eine Umfrage bei den Vereinen der 1. und 2. Fußballbundesliga und bei den Vereinen der 1. Tennisbundesliga durchgeführt. Die Ergebnisse dieser Umfrage stützen die gefundenen rechtlichen Ergebnisse und belegen deren Praxistauglichkeit.
Christoph Sebastian Widdau leistet mit seinem Buch einen innovativen Beitrag zur Cassirer-Forschung, zu den Leibniz-Studien und zur Begründung der Menschenrechte. Er wirft ein ideengeschichtlich und philosophisch neues Licht auf die 'Natur' im Naturrecht, die kulturelle Bedeutung des Individuums und den Pluralismus politischer Ordnungen. Mit 'Cassirers Leibniz' zeigt Widdau auf, dass Menschenrechte kein beliebiger Zusatz zur Kultur, sondern vielmehr kulturkonstitutiv sind.
In many statistical applications, the aim is to model the relationship between covariates and some outcomes. A choice of the appropriate model depends on the outcome and the research objectives, such as linear models for continuous outcomes, logistic models for binary outcomes and the Cox model for time-to-event data. In epidemiological, medical, biological, societal and economic studies, the logistic regression is widely used to describe the relationship between a response variable as binary outcome and explanatory variables as a set of covariates. However, epidemiologic cohort studies are quite expensive regarding data management since following up a large number of individuals takes long time. Therefore, the case-cohort design is applied to reduce cost and time for data collection. The case-cohort sampling collects a small random sample from the entire cohort, which is called subcohort. The advantage of this design is that the covariate and follow-up data are recorded only on the subcohort and all cases (all members of the cohort who develop the event of interest during the follow-up process).
In this thesis, we investigate the estimation in the logistic model for case-cohort design. First, a model with a binary response and a binary covariate is considered. The maximum likelihood estimator (MLE) is described and its asymptotic properties are established. An estimator for the asymptotic variance of the estimator based on the maximum likelihood approach is proposed; this estimator differs slightly from the estimator introduced by Prentice (1986). Simulation results for several proportions of the subcohort show that the proposed estimator gives lower empirical bias and empirical variance than Prentice's estimator.
Then the MLE in the logistic regression with discrete covariate under case-cohort design is studied. Here the approach of the binary covariate model is extended. Proving asymptotic normality of estimators, standard errors for the estimators can be derived. The simulation study demonstrates the estimation procedure of the logistic regression model with a one-dimensional discrete covariate. Simulation results for several proportions of the subcohort and different choices of the underlying parameters indicate that the estimator developed here performs reasonably well. Moreover, the comparison between theoretical values and simulation results of the asymptotic variance of estimator is presented.
Clearly, the logistic regression is sufficient for the binary outcome refers to be available for all subjects and for a fixed time interval. Nevertheless, in practice, the observations in clinical trials are frequently collected for different time periods and subjects may drop out or relapse from other causes during follow-up. Hence, the logistic regression is not appropriate for incomplete follow-up data; for example, an individual drops out of the study before the end of data collection or an individual has not occurred the event of interest for the duration of the study. These observations are called censored observations. The survival analysis is necessary to solve these problems. Moreover, the time to the occurence of the event of interest is taken into account. The Cox model has been widely used in survival analysis, which can effectively handle the censored data. Cox (1972) proposed the model which is focused on the hazard function. The Cox model is assumed to be
λ(t|x) = λ0(t) exp(β^Tx)
where λ0(t) is an unspecified baseline hazard at time t and X is the vector of covariates, β is a p-dimensional vector of coefficient.
In this thesis, the Cox model is considered under the view point of experimental design. The estimability of the parameter β0 in the Cox model, where β0 denotes the true value of β, and the choice of optimal covariates are investigated. We give new representations of the observed information matrix In(β) and extend results for the Cox model of Andersen and Gill (1982). In this way conditions for the estimability of β0 are formulated. Under some regularity conditions, ∑ is the inverse of the asymptotic variance matrix of the MPLE of β0 in the Cox model and then some properties of the asymptotic variance matrix of the MPLE are highlighted. Based on the results of asymptotic estimability, the calculation of local optimal covariates is considered and shown in examples. In a sensitivity analysis, the efficiency of given covariates is calculated. For neighborhoods of the exponential models, the efficiencies have then been found. It is appeared that for fixed parameters β0, the efficiencies do not change very much for different baseline hazard functions. Some proposals for applicable optimal covariates and a calculation procedure for finding optimal covariates are discussed.
Furthermore, the extension of the Cox model where time-dependent coefficient are allowed, is investigated. In this situation, the maximum local partial likelihood estimator for estimating the coefficient function β(·) is described. Based on this estimator, we formulate a new test procedure for testing, whether a one-dimensional coefficient function β(·) has a prespecified parametric form, say β(·; ϑ). The score function derived from the local constant partial likelihood function at d distinct grid points is considered. It is shown that the distribution of the properly standardized quadratic form of this d-dimensional vector under the null hypothesis tends to a Chi-squared distribution. Moreover, the limit statement remains true when replacing the unknown ϑ0 by the MPLE in the hypothetical model and an asymptotic α-test is given by the quantiles or p-values of the limiting Chi-squared distribution. Finally, we propose a bootstrap version of this test. The bootstrap test is only defined for the special case of testing whether the coefficient function is constant. A simulation study illustrates the behavior of the bootstrap test under the null hypothesis and a special alternative. It gives quite good results for the chosen underlying model.
References
P. K. Andersen and R. D. Gill. Cox's regression model for counting processes: a large samplestudy. Ann. Statist., 10(4):1100{1120, 1982.
D. R. Cox. Regression models and life-tables. J. Roy. Statist. Soc. Ser. B, 34:187{220, 1972.
R. L. Prentice. A case-cohort design for epidemiologic cohort studies and disease prevention trials. Biometrika, 73(1):1{11, 1986.
Zwecks Erklärung von komplexen Finanzierungsentscheidungen multinationaler Unternehmen mit besonderem Bezug zum Euroraum werden bisherige Ansätze im Bereich „Finance“ erweitert und empirisch belegt. Die Analyse beschränkt sich hier nicht ausschließlich auf die Kapitalstruktur (Eigen- und Fremdkapital), sondern ebenfalls auf die strukturellen Verhältnisse von Innen- und Außenfinanzierung. Damit wird einerseits der Forschungsstrang „Corporate Finance“ fortgeführt andererseits mit einem Cashflow basierten Ansatz erweitert. In Anlehnung an das theoretische Modell zur optimalen Finanzierungsstruktur (Innen- und Außenfinanzierung) werden auf eigener Datenbasis periodenspezifische Entwicklungen der Unternehmensfinanzierung im internationalen Kontext analysiert.
Die besonderen Auswirkungen der globalen Finanzkrise auf börsennotierte Unternehmen aus Deutschland, Frankreich und Italien werden hier mit einem neuen Ansatz empirisch untersucht. Dabei zeigt sich, dass die Folgen der globalen Finanzkrise für die Kapitalbeschaffung multinationaler Unternehmen, zunächst allein auf Basis der Kapitalstruktur scheinbar geringere Veränderungen verursachten, unter Berücksichtigung der Finanzierungsstruktur jedoch weitreichende Dynamiken zum Vorschein kamen. Demnach unterliegen die Finanzierungsvolumina und die entsprechenden Finanzierungsquoten im Krisenverlauf enormen Schwankungen, die vielschichtige Herausforderungen für das internationale Finanzmanagement verdeutlichen.
Since 1998, elite athletes’ sport injuries have been monitored in single sport event, which leads to the development of first comprehensive injury surveillance system in multi-sport Olympic Games in 2008. However, injury and illness occurred in training phases have not been systematically studied due to its multi-facets, potentially interactive risk related factors. The present thesis aim to address issues of feasibility of establishing a validated measure for injury/illness, training environment and psychosocial risk factors by creating the evaluation tool namely risk of injury questionnaire (Risk-IQ) for elite athletes, which based on IOC consensus statement 2009 recommended content of preparticipation evaluation(PPE) and periodic health exam (PHE).
A total of 335 top level athletes and a total of 88 medical care providers from Germany and Taiwan participated in tow “cross-sectional plus longitudinal” Risk-IQ and MCPQ surveys respectively. Four categories of injury/illness related risk factors questions were asked in Risk-IQ for athletes while injury risk and psychological related questions were asked in MCPQ for MCP cohorts. Answers were quantified scales wise/subscales wise before analyzed with other factors/scales. In addition, adapted variables such as sport format were introduced for difference task of analysis.
Validated with 2-wyas translation and test-retest reliabilities, the Risk-IQ was proved to be in good standard which were further confirmed by analyzed results from official surveys in both Germany and Taiwan. The result of Risk-IQ revealed that elite athletes’ accumulated total injuries, in general, were multi-factor dependent; influencing factors including but not limited to background experiences, medical history, PHE and PPE medical resources as well as stress from life events. Injuries of different body parts were sport format and location specific. Additionally, medical support of PPE and PHE indicated significant difference between German and Taiwan.
The result of the present thesis confirmed that it is feasible to construct a comprehensive evalua-tion instrument for heterogeneous elite athletes cohorts’ risk factor analysis for injury/illness oc-curred during their non-competition periods. In average and with many moderators involved, Ger-man elite athletes have superior medical care support yet suffered more severe injuries than Tai-wanese counterparts. Opinions of injury related psychological issues reflected differently on vari-ous MCP groups irrespective of different nationalities. In general, influencing factors and interac-tions existed among relevant factors in both studies which implied further investigation with multiple regression analysis is needed for better understanding.
Imago Dei versus Kultbild
(2016)
Der Autor wertet das Verwaltungsschriftgut in Brandenburg-Preußen und Kurhannover aus dem 18. Jahrhundert wissenschaftlich und in Teilen erstmalig aus. Der Fokus liegt dabei auf den vielen Akteuren, denn die Wirtschaftspolitik im 18. Jahrhundert ging im Wesentlichen von Beschwerden und Bitten der Untertanen aus. Wirtschaftspolitische Maßnahmen wie Fabrikgründungen, Monopole, Privilegien, Ein- und Ausfuhrverbote oder Zölle wurden im Wechselspiel von der Verwaltung mit den jeweils Betroffenen ausgehandelt. Von Diest stellt dabei die in der Forschung bisher weitverbreitete wirtschaftspolitische Theorie des Merkantilismus, nach der alle Wirtschaftskraft eines Staates auf einen zentral vom Monarchen vorgegebenen Plan ausgerichtet war, auf die Probe.
Die vorliegende Arbeit befasst sich mit Führungsverhalten im öffentlichen Sektor sowie mit Einflussfaktoren auf dieses Führungsverhalten. Hierzu wurde eine Taxonomie, bestehend aus sechs Metakategorien von Führungsverhalten, entwickelt. Die Metakategorien umfassen Aufgaben-, Beziehungs-, Veränderungs-, Außen-, Ethik- und Sachbearbeitungsorientierung. Eine Analyse von Umfragedaten, die für diese Arbeit bei Mitarbeitern und unteren Führungskräften dreier Behörden erhoben wurden, zeigt, dass diese Taxonomie sehr gut geeignet ist, die Führungsrealität in der öffentlichen Verwaltung abzubilden.
Eine deskriptive Auswertung der Daten zeigt außerdem, dass es eine relativ große Differenz zwischen der Selbsteinschätzung der Führungskräfte und der Fremdeinschätzung durch ihre Mitarbeiter gibt. Diese Differenz ist bei der Beziehungs- und Veränderungsorientierung besonders hoch.
Der deskriptiven Auswertung schließt sich eine Analyse von Einflussfaktoren auf das Führungsverhalten an. Die Einflussfaktoren können den vier Kategorien "Charakteristika und Eigenschaften der Führungskräfte", "Erwartungen und Interesse von Vorgesetzten", "Charakteristika und Einstellungen von Geführten" und "Managementinstrumente und -rahmenbedingungen" zugeordnet werden.
Eine Analyse mit Hilfe von hierarchischen linearen Modellen zeigt, dass vor allem die Führungsmotivation und die Managementorientierung der Führungskräfte, die Gemeinwohlorientierung und die Art der Aufgabe der Geführten sowie die strategische Führungskräfteauswahl und die Leistungsmessung durch die Führungskräfte anhand konkreter Ziele einen Einfluss auf das Führungsverhalten haben.
Die Ergebnisse dieser Arbeit ergänzen die Literatur zu Führungsverhalten im öffentlichen Sektor um die Perspektive der Einflussfaktoren auf das Führungsverhalten und leisten zusätzlich mit Hilfe der verwendeten Taxonomie einen Beitrag zur theoretischen Diskussion von Führungsverhalten in der Public-Management-Forschung. Darüber hinaus bieten die gewonnenen Erkenntnisse der Verwaltungspraxis Hinweise zu relevanten Einflussfaktoren auf das Führungsverhalten sowie auf beachtliche Differenzen zwischen Selbst- und Fremdwahrnehmung des Führungsverhaltens.
"Microfilm" (1971) von Andrea Zanzotto ist ein hoch komplexes, intermediales Gebilde, das seit seiner erstmaligen Veröffentlichung der Zanzotto-Forschung große interpretative Schwierigkeiten bereitet hat. Die vorliegende Arbeit ist die erste umfassende Monographie zu "Microfilm". Nach Zanzottos eigener Aussage entstand "Microfilm" als künstlerische Reaktion auf die Katastrophe von Vajont vom 9. Oktober 1963, als ein Bergrutsch eine gewaltige Flutwelle auslöste, die über den Vajont-Staudamm hinweg ins Tal von Longarone stürzte. Der Hintergrund des Werkes gibt dem Autor den Anlass zu einem simulierten Hinterfragen des tragischen Ereignisses und zugleich seines eigenen Schaffens. Dies vollzieht sich in der Form einer trugbildhaften bildschriftlichen Komposition. Die Sinnlosigkeit der Katastrophe wiederholt sich in der diskontinuierlichen, hermetischen Form von Zanzottos Text.
Proteins are natural polypeptides produced by cells; they can be found in both animals and plants, and possess a variety of functions. One of these functions is to provide structural support to the surrounding cells and tissues. For example, collagen (which is found in skin, cartilage, tendons and bones) and keratin (which is found in hair and nails) are structural proteins. When a tissue is damaged, however, the supporting matrix formed by structural proteins cannot always spontaneously regenerate. Tailor-made synthetic polypeptides can be used to help heal and restore tissue formation.
Synthetic polypeptides are typically synthesized by the so-called ring opening polymerization (ROP) of α-amino acid N-carboxyanhydrides (NCA). Such synthetic polypeptides are generally non-sequence-controlled and thus less complex than proteins. As such, synthetic polypeptides are rarely as efficient as proteins in their ability to self-assemble and form hierarchical or structural supramolecular assemblies in water, and thus, often require rational designing. In this doctoral work, two types of amino acids, γ-benzyl-L/D-glutamate (BLG / BDG) and allylglycine (AG), were selected to synthesize a series of (co)polypeptides of different compositions and molar masses.
A new and versatile synthetic route to prepare polypeptides was developed, and its mechanism and kinetics were investigated. The polypeptide properties were thoroughly studied and new materials were developed from them. In particular, these polypeptides were able to aggregate (or self-assemble) in solution into microscopic fibres, very similar to those formed by collagen. By doing so, they formed robust physical networks and organogels which could be processed into high water-content, pH-responsive hydrogels. Particles with highly regular and chiral spiral morphologies were also obtained by emulsifying these polypeptides. Such polypeptides and the materials derived from them are, therefore, promising candidates for biomedical applications.
Foam fractionation of surfactant and protein solutions is a process dedicated to separate surface active molecules from each other due to their differences in surface activities. The process is based on forming bubbles in a certain mixed solution followed by detachment and rising of bubbles through a certain volume of this solution, and consequently on the formation of a foam layer on top of the solution column. Therefore, systematic analysis of this whole process comprises of at first investigations dedicated to the formation and growth of single bubbles in solutions, which is equivalent to the main principles of the well-known bubble pressure tensiometry. The second stage of the fractionation process includes the detachment of a single bubble from a pore or capillary tip and its rising in a respective aqueous solution. The third and final stage of the process is the formation and stabilization of the foam created by these bubbles, which contains the adsorption layers formed at the growing bubble surface, carried up and gets modified during the bubble rising and finally ends up as part of the foam layer.
Bubble pressure tensiometry and bubble profile analysis tensiometry experiments were performed with protein solutions at different bulk concentrations, solution pH and ionic strength in order to describe the process of accumulation of protein and surfactant molecules at the bubble surface. The results obtained from the two complementary methods allow understanding the mechanism of adsorption, which is mainly governed by the diffusional transport of the adsorbing protein molecules to the bubble surface. This mechanism is the same as generally discussed for surfactant molecules. However, interesting peculiarities have been observed for protein adsorption kinetics at sufficiently short adsorption times. First of all, at short adsorption times the surface tension remains constant for a while before it decreases as expected due to the adsorption of proteins at the surface. This time interval is called induction time and it becomes shorter with increasing protein bulk concentration. Moreover, under special conditions, the surface tension does not stay constant but even increases over a certain period of time. This so-called negative surface pressure was observed for BCS and BLG and discussed for the first time in terms of changes in the surface conformation of the adsorbing protein molecules. Usually, a negative surface pressure would correspond to a negative adsorption, which is of course impossible for the studied protein solutions. The phenomenon, which amounts to some mN/m, was rather explained by simultaneous changes in the molar area required by the adsorbed proteins and the non-ideality of entropy of the interfacial layer. It is a transient phenomenon and exists only under dynamic conditions.
The experiments dedicated to the local velocity of rising air bubbles in solutions were performed in a broad range of BLG concentration, pH and ionic strength. Additionally, rising bubble experiments were done for surfactant solutions in order to validate the functionality of the instrument. It turns out that the velocity of a rising bubble is much more sensitive to adsorbing molecules than classical dynamic surface tension measurements. At very low BLG or surfactant concentrations, for example, the measured local velocity profile of an air bubble is changing dramatically in time scales of seconds while dynamic surface tensions still do not show any measurable changes at this time scale. The solution’s pH and ionic strength are important parameters that govern the measured rising velocity for protein solutions. A general theoretical description of rising bubbles in surfactant and protein solutions is not available at present due to the complex situation of the adsorption process at a bubble surface in a liquid flow field with simultaneous Marangoni effects. However, instead of modelling the complete velocity profile, new theoretical work has been started to evaluate the maximum values in the profile as characteristic parameter for dynamic adsorption layers at the bubble surface more quantitatively.
The studies with protein-surfactant mixtures demonstrate in an impressive way that the complexes formed by the two compounds change the surface activity as compared to the original native protein molecules and therefore lead to a completely different retardation behavior of rising bubbles. Changes in the velocity profile can be interpreted qualitatively in terms of increased or decreased surface activity of the formed protein-surfactant complexes. It was also observed that the pH and ionic strength of a protein solution have strong effects on the surface activity of the protein molecules, which however, could be different on the rising bubble velocity and the equilibrium adsorption isotherms. These differences are not fully understood yet but give rise to discussions about the structure of protein adsorption layer under dynamic conditions or in the equilibrium state.
The third main stage of the discussed process of fractionation is the formation and characterization of protein foams from BLG solutions at different pH and ionic strength. Of course a minimum BLG concentration is required to form foams. This minimum protein concentration is a function again of solution pH and ionic strength, i.e. of the surface activity of the protein molecules. Although at the isoelectric point, at about pH 5 for BLG, the hydrophobicity and hence the surface activity should be the highest, the concentration and ionic strength effects on the rising velocity profile as well as on the foamability and foam stability do not show a maximum. This is another remarkable argument for the fact that the interfacial structure and behavior of BLG layers under dynamic conditions and at equilibrium are rather different. These differences are probably caused by the time required for BLG molecules to adapt respective conformations once they are adsorbed at the surface.
All bubble studies described in this work refer to stages of the foam fractionation process. Experiments with different systems, mainly surfactant and protein solutions, were performed in order to form foams and finally recover a solution representing the foamed material. As foam consists to a large extent of foam lamella – two adsorption layers with a liquid core – the concentration in a foamate taken from foaming experiments should be enriched in the stabilizing molecules. For determining the concentration of the foamate, again the very sensitive bubble rising velocity profile method was applied, which works for any type of surface active materials. This also includes technical surfactants or protein isolates for which an accurate composition is unknown.
Die sensorisch einwandfreie, konstant gute Qualität von Backprodukten, die beim Verbraucher einen hohen Stellenwert hat, wird maßgeblich durch den Gehalt endogener Getreideenzyme beeinflusst. Seit dem Auftreten züchtungsbedingter Enzymdefizite ist der Einsatz technischer Enzyme zur Gewährleistung dieser geforderten Qualität eine feste Größe in der Backwarenindustrie. Lebensmittelrechtlich werden technische Enzyme nicht als Zutat betrachtet, da sie theoretisch während des Backprozesses umgesetzt werden und im Endprodukt keine technologische Wirkung mehr zeigen. Vor allem in gebackenen Produkten bedarf es der Prüfung, dass die eingesetzten technischen Enzyme nicht mehr als Zutat vorliegen und sich somit einer potentiellen Deklarationspflicht entziehen. Zur Gewährleistung der Wirtschaftlichkeit muss der quantitative Einsatz technischer Enzyme in der Backwarenindustrie gesteuert werden, um optimale Effekte zu erzielen und Kosten zu sparen. Ziel dieser Arbeit war daher die Entwicklung eines Analysenverfahrens, das den simultanen Nachweis verschiedener technischer Enzyme und deren Quantifizierung im Spurenbereich auch in gebackenen Produkten ermöglicht.
Für die Einschätzung der Wirkung der technischen Enzyme Fungamyl (Novozymes), Amylase TXL (ASA Spezialenzyme GmbH) sowie Lipase FE-01 (ASA Spezialenzyme GmbH) wurden Backversuche durchgeführt, die zeigten, dass Fungamyl und Amylase TXL zu einer verbesserten Brotqualität (Volumenausbeute, Feuchtegehalt, Sensorik) beitrugen. Die Zugabe der Lipase FE-01 führte zu einer vermehrten Bildung freier Fettsäuren und wirkte sich negativ auf die sensorische Brotqualität aus. Dieser bisher nicht beschriebene Effekt konnte auf die Nutzung eines Spezialöls als Backzutat zurückgeführt werden, welches ausschließlich aus gesättigten Fettsäuren besteht. Dies bestätigt die Bedeutung der Auswahl eines geeigneten Fettes beim Zusatz technischer Lipase zum Backprozess.
Um die in Fungamyl und Lipase FE-01 enthaltenen Enzyme zu identifizieren, wurden SDS-PAGE und anschließender In-Gel-Verdau angewendet um die Analyse proteolytisch gespaltener Proteine mit MALDI-TOF-MS zu ermöglichen. Es konnte gezeigt werden, dass Fungamyl ein Gemisch aus 9,8 % alpha-Amylase (Aspergillus oryzae) und 5,2 % Endo-1,4-Xylanase (Thermomyces lanuginosus) enthält. Lipase FE-01 besteht aus der Lipase (Thermomyces lanuginosus), Amylase TXL wurde als alpha-Amylase (Aspergillus oryzae) identifiziert.
Zur Analyse der technischen Enzyme in Backwaren wurde aufgrund seiner Robustheit und Sensitivität das Verfahren der LC-MS/MS gewählt. Die Entwicklung einer solchen Methode zur Detektion spezifischer Peptide ermöglichte den qualitativen Nachweis der 3 Enzyme alpha-Amylase (Aspergillus oryzae), Endo-1,4-Xylanase (Thermomyces lanuginosus) und Lipase (Thermomyces lanuginosus). Durch eine lineare Kalibrierung aus synthetisch hergestellten Peptiden unter Einbeziehung eines Protein-Internen-Standards sowie isotopenmarkierter Peptidstandards erfolgte darüber hinaus die quantitative Bestimmung in selbst hergestellten Referenzmaterialien (Weizenmehl, Toastbrot und Biskuitkeks). In weniger als 20 Minuten Messzeit kann das Enzym alpha-Amylase ab einer Konzentration von 2,58 mg/kg (Mehl, Keks), bzw. 7,61 mg/kg (Brot) quantitativ nachgewiesen werden. Zeitgleich können die Enzyme Endo-1,4-Xylanase ab einer Konzentration von 7,75 mg/kg (Brot), 3,64 mg/kg (Keks) bzw. 15,60 mg/kg (Mehl) sowie Lipase ab einer Konzentration von 1,26 mg/kg (Mehl, Keks), bzw. 2,68 mg/kg (Brot) quantifiziert werden. Die Methode wurde nach allgemein verwendeten Richtlinien im Zuge einer Validierung statistisch geprüft und lieferte sehr robuste und reproduzierbare quantitative Werte mit Wiederfindungsraten zwischen 50 % und 122 %. Das primäre Ziel dieser Arbeit, die Entwicklung eines quantitativen Multiparameterverfahrens zum Nachweis technischer Enzyme in Backwaren, wurde somit erfolgreich umgesetzt.
Die hohe Energieaufnahme durch Fette ist ein Hauptfaktor für die Entstehung von Adipositas, was zu weltweiten Bestrebungen führte, die Fettaufnahme zu verringern. Fettreduzierte Lebensmittel erreichen jedoch, trotz ihrer Weiterentwicklung, nicht die Schmackhaftigkeit ihrer Originale. Die traditionelle Sichtweise, dass die Attraktivität von Fetten allein durch Textur, Geruch, Aussehen und postingestive Effekte bestimmt wird, wird nun durch das Konzept einer gustatorischen Wahrnehmung ergänzt. Bei Nagetieren zeigte sich, dass Lipide unabhängig von den vorgenannten Eigenschaften erkannt werden, sowie, dass Fettsäuren, freigesetzt durch linguale Lipasen, als gustatorische Stimuli fungieren und Fettsäuresensoren in Geschmackszellen exprimiert sind. Die Datenlage für den Menschen erwies sich jedoch als sehr begrenzt, daher war es Ziel der vorliegenden Arbeit molekulare und histologische Voraussetzungen für eine gustatorische Fettwahrnehmung beim Menschen zu untersuchen.
Zunächst wurde humanes Geschmacksgewebe mittels RT-PCR und immunhistochemischen Methoden auf die Expression von Fettsäuresensoren untersucht, sowie exprimierende Zellen in Kofärbeexperimenten charakterisiert und quantifiziert. Es wurde die Expression fettsäuresensitiver Rezeptoren nachgewiesen, deren Agonisten das gesamte Spektrum an kurz- bis langkettigen Fettsäuren abdecken (GPR43, GPR84, GPR120, CD36, KCNA5). Ein zweifelsfreier Nachweis des Proteins konnte für den auf langkettige Fettsäuren spezialisierten Rezeptor GPR120 in Typ-I- und Typ-III-Geschmackszellen der Wallpapillen erbracht werden. Etwa 85 % dieser GPR120-exprimierenden Zellen enthielten keine der ausgewählten Rezeptoren der Geschmacksqualitäten süß (TAS1R2/3), umami (TAS1R1/3) oder bitter (TAS2R38). Somit findet sich in humanen Geschmackspapillen nicht nur mindestens ein Sensor, sondern möglicherweise auch eine spezifische, fettsäuresensitive Zellpopulation. Weitere RT-PCR-Experimente und Untersuchungen mittels In-situ-Hybridisierung wurden zur Klärung der Frage durchgeführt, ob Lipasen in den Von-Ebner-Speicheldrüsen (VED) existieren, die freie Fettsäuren aus Triglyceriden als gustatorischen Stimulus freisetzen können. Es zeigte sich zwar keine Expression der bei Nagetieren gefundenen Lipase F (LIPF), jedoch der eng verwandten Lipasen K, M und N in den serösen Zellen der VED. In-silico-Untersuchungen der Sekundär- und Tertiärstrukturen zeigten die hohe Ähnlichkeit zu LIPF, erwiesen aber auch Unterschiede in den Bindungstaschen der Enzyme, welche auf ein differenziertes Substratspektrum hinweisen. Die Anwesenheit eines spezifischen Signalpeptids macht eine Sekretion der Lipasen in den die Geschmacksporen umspülenden Speichel wahrscheinlich und damit auch eine Bereitstellung von Fettsäuren als Stimuli für Fettsäuresensoren. Die Übertragung des durch diese Stimuli hervorgerufenen Signals von Geschmackszellen auf gustatorische Nervenfasern über P2X-Rezeptormultimere wurde mit Hilfe einer vorherigen Intervention mit einem P2X3 /P2X2/3-spezifischen Antagonisten an der Maus als Modellorganismus im Kurzzeit-Präferenztest untersucht. Es zeigte sich weder eine Beeinträchtigung der Wahrnehmung einer Fettsäurelösung, noch einer zuckerhaltigen Kontrolllösung, wohingegen die Wahrnehmung einer Bitterstofflösung reduziert wurde. Somit ist anhand der Ergebnisse dieser Arbeit eine Beteiligung des P2X3-Homomers bzw. des P2X2/3-Heteromers unwahrscheinlich, jedoch die des P2X2-Homomers und damit der gustatorischen Nervenfasern nicht ausgeschlossen.
Die Ergebnisse dieser Arbeit weisen auf die Erfüllung grundlegender Voraussetzungen für die gustatorische Fett(säure)wahrnehmung hin und tragen zum Verständnis der sensorischen Fettwahrnehmung und der Regulation der Fettaufnahme bei. Das Wissen um die Regulation dieser Mechanismen stellt eine Grundlage zur Aufklärung der Ursachen und damit der Bekämpfung von Adipositas und assoziierten Krankheiten dar.
Porous Membranes from Imidazolium- and Pyridinium-based Poly(ionic liquid)s with Targeted Properties
(2016)
This study presents new insights into null subjects, topic drop and the interpretation of topic-dropped elements. Besides providing an empirical data survey, it offers explanations to well-known problems, e.g. syncretisms in the context of null-subject licensing or the marginality of dropping an element which carries oblique case. The book constitutes a valuable source for both empirically and theoretically interested (generative) linguists.
This thesis presents new approaches of SAR methods and their application to tectonically active systems and related surface deformation. With 3 publications two case studies are presented:
(1) The coseismic deformation related to the Nura earthquake (5th October 2008, magnitude Mw 6.6) at the eastern termination of the intramontane Alai valley. Located between the southern Tien Shan and the northern Pamir the coseismic surface displacements are analysed using SAR (Synthetic Aperture RADAR) data. The results show clear gradients in the vertical and horizontal directions along a complex pattern of surface ruptures and active faults. To integrate and to interpret these observations in the context of the regional active tectonics a SAR data analysis is complemented with seismological data and geological field observations. The main moment release of the Nura earthquake appears to be on the Pamir Frontal thrust, while the main surface displacements and surface rupture occurred in the footwall and along of the NE–SW striking Irkeshtam fault. With InSAR data from ascending and descending satellite tracks along with pixel offset measurements the Nura earthquake source is modelled as a segmented rupture. One fault segment corresponds to high-angle brittle faulting at the Pamir Frontal thrust and two more fault segments show moderate-angle and low-friction thrusting at the Irkeshtam fault. The integrated analysis of the coseismic deformation argues for a rupture segmentation and strain partitioning associated to the earthquake. It possibly activated an orogenic wedge in the easternmost segment of the Pamir-Alai collision zone. Further, the style of the segmentation may be associated with the presence of Paleogene evaporites.
(2) The second focus is put on slope instabilities and consequent landslides in the area of prominent topographic transition between the Fergana basin and high-relief Alai range. The Alai range constitutes an active orogenic wedge of the Pamir – Tien Shan collision zone that described as a progressively northward propagating fold-and-thrust belt. The interferometric analysis of ALOS/PALSAR radar data integrates a period of 4 years (2007-2010) based on the Small Baseline Subset (SBAS) time-series technique to assess surface deformation with millimeter surface change accuracy. 118 interferograms are analyzed to observe spatially-continuous movements with downslope velocities up to 71 mm/yr. The obtained rates indicate slow movement of the deep-seated landslides during the observation time. We correlated these movements with precipitation and seismic records. The results suggest that the deformation peaks correlate with rainfall in the 3 preceding months and with one earthquake event. In the next step, to understand the spatial pattern of landslide processes, the tectonic morphologic and lithologic settings are combined with the patterns of surface deformation. We demonstrate that the lithological and tectonic structural patterns are the main controlling factors for landslide occurrence and surface deformation magnitudes. Furthermore active contractional deformation in the front of the orogenic wedge is the main mechanism to sustain relief. Some of the slower but continuously moving slope instabilities are directly related to tectonically active faults and unconsolidated young Quaternary syn-orogenic sedimentary sequences. The InSAR observed slow moving landslides represent active deep-seated gravitational slope deformation phenomena which is first time observed in the Tien Shan mountains. Our approach offers a new combination of InSAR techniques and tectonic aspects to localize and understand enhanced slope instabilities in tectonically active mountain fronts in the Kyrgyz Tien Shan.
Infants' lexical processing is modulated by featural manipulations made to words, suggesting that early lexical representations are sufficiently specified to establish a match with the corresponding label. However, the precise degree of detail in early words requires further investigation due to equivocal findings. We studied this question by assessing children’s sensitivity to the degree of featural manipulation (Chapters 2 and 3), and sensitivity to the featural makeup of homorganic and heterorganic consonant clusters (Chapter 4). Gradient sensitivity on the one hand and sensitivity to homorganicity on the other hand would suggest that lexical processing makes use of sub-phonemic information, which in turn would indicate that early words contain sub-phonemic detail. The studies presented in this thesis assess children’s sensitivity to sub-phonemic detail using minimally demanding online paradigms suitable for infants: single-picture pupillometry and intermodal preferential looking. Such paradigms have the potential to uncover lexical knowledge that may be masked otherwise due to cognitive limitations. The study reported in Chapter 2 obtained a differential response in pupil dilation to the degree of featural manipulation, a result consistent with gradient sensitivity. The study reported in Chapter 3 obtained a differential response in proportion of looking time and pupil dilation to the degree of featural manipulation, a result again consistent with gradient sensitivity. The study reported in Chapter 4 obtained a differential response to the manipulation of homorganic and heterorganic consonant clusters, a result consistent with sensitivity to homorganicity. These results suggest that infants' lexical representations are not only specific, but also detailed to the extent that they contain sub-phonemic information.
Savannas cover a broad geographical range across continents and are a biome best described by a mix of herbaceous and woody plants. The former create a more or less continuous layer while the latter should be sparse enough to leave an open canopy. What has long intrigued ecologists is how these two competing plant life forms of vegetation coexist.
Initially attributed to resource competition, coexistence was considered the stable outcome of a root niche differentiation between trees and grasses. The importance of environmental factors became evident later, when data from moister environments demonstrated that tree cover was often lower than what the rainfall conditions would allow for. Our current understanding relies on the interaction of competition and disturbances in space and time. Hence, the influence of grazing and fire and the corresponding feedbacks they generate have been keenly investigated. Grazing removes grass cover, initiating a self-reinforcing process propagating tree cover expansion. This is known as the encroachment phenomenon. Fire, on the other hand, imposes a bottleneck on the tree population by halting the recruitment of young trees into adulthood. Since grasses fuel fires, a feedback linking grazing, grass cover, fire, and tree cover is created. In African savannas, which are the focus of this dissertation, these feedbacks play a major role in the dynamics.
The importance of these feedbacks came into sharp focus when the notion of alternative states began to be applied to savannas. Alternative states in ecology arise when different states of an ecosystem can occur under the same conditions. According to this an open savanna and a tree-dominated savanna can be classified as alternative states, since they can both occur under the same climatic conditions. The aforementioned feedbacks are critical in the creation of alternative states. The grass-fire feedback can preserve an open canopy as long as fire intensity and frequency remain above a certain threshold. Conversely, crossing a grazing threshold can force an open savanna to shift to a tree-dominated state. Critically, transitions between such alternative states can produce hysteresis, where a return to pre-transition conditions will not suffice to restore the ecosystem to its original state.
In the chapters that follow, I will cover aspects relating to the coexistence mechanisms and the role of feedbacks in tree-grass interactions. Coming back to the coexistence question, due to the overwhelming focus on competition and disturbance another important ecological process was neglected: facilitation. Therefore, in the first study within this dissertation I examine how facilitation can expand the tree-grass coexistence range into drier conditions. For the second study I focus on another aspect of savanna dynamics which remains underrepresented in the literature: the impacts of inter-annual rainfall variability upon savanna trees and the resilience of the savanna state. In the third and final study within this dissertation I approach the well-researched encroachment phenomenon from a new perspective: I search for an early warning indicator of the process to be used as a prevention tool for savanna conservation. In order to perform all this work I developed a mathematical ecohydrological model of Ordinary Differential Equations (ODEs) with three variables: soil moisture content, grass cover and tree cover.
Facilitation: Results showed that the removal of grass cover through grazing was detrimental to trees under arid conditions, contrary to expectation based on resource competition. The reason was that grasses preserved moisture in the soil through infiltration and shading, thus ameliorating the harsh conditions for trees in accordance with the Stress Gradient Hypothesis. The exclusion of grasses from the model further demonstrated this: tree cover was lower in the absence of grasses, indicating that the benefits of grass facilitation outweighed the costs of grass competition for trees. Thus, facilitation expanded the climatic range where savannas persisted into drier conditions.
Rainfall variability: By adjusting the model to current rainfall patterns in East Africa, I simulated conditions of increasing inter-annual rainfall variability for two distinct mean rainfall scenarios: semi-arid and mesic. Alternative states of tree-less grassland and tree-dominated savanna emerged in both cases. Increasing variability reduced semi-arid savanna tree cover to the point that at high variability the savanna state was eliminated, because variability intensified resource competition and strengthened the fire disturbance during high rainfall years. Mesic savannas, on the other hand, became more resilient along the variability gradient: increasing rainfall variability created more opportunities for the rapid growth of trees to overcome the fire disturbance, boosting the chances of savannas persisting and thus increasing mesic savanna resilience.
Preventing encroachment: The breakdown in the grass-fire feedback caused by heavy grazing promoted the expansion of woody cover. This could be irreversible due to the presence of alternative states of encroached and open savanna, which I found along a simulated grazing gradient. When I simulated different short term heavy grazing treatments followed by a reduction to the original grazing conditions, certain cases converged to the encroached state. Utilising woody cover changes only during the heavy grazing treatment, I developed an early warning indicator which identified these cases with a high risk of such hysteresis and successfully distinguished them from those with a low risk. Furthermore, after validating the indicator on encroachment data, I demonstrated that it appeared early enough for encroachment to be prevented through realistic grazing-reduction treatments.
Though this dissertation is rooted in the theory of savanna dynamics, its results can have significant applications in savanna conservation. Facilitation has only recently become a topic of interest within savanna literature. Given the threat of increasing droughts and a general anticipation of drier conditions in parts of Africa, insights stemming from this research may provide clues for preserving arid savannas. The impacts of rainfall variability on savannas have not yet been thoroughly studied, either. Conflicting results appear as a result of the lack of a robust theoretical understanding of plant interactions under variable conditions. . My work and other recent studies argue that such conditions may increase the importance of fast resource acquisition creating a ‘temporal niche’. Woody encroachment has been extensively studied as phenomenon, though not from the perspective of its early identification and prevention. The development of an encroachment forecasting tool, as the one presented in this work, could protect both the savanna biome and societies dependent upon it for (economic) survival. All studies which follow are bound by the attempt to broaden the horizons of savanna-related research in order to deal with extreme conditions and phenomena; be it through the enhancement of the coexistence debate or the study of an imminent external threat or the development of a management-oriented tool for the conservation of savannas.
Die sozialwissenschaftliche Dissertation nimmt den derzeitigen DIY-Trend, konkret den Handarbeitstrend, in den Fokus. Welche individuellen Gründe und gesellschaftliche Entwicklungen bewegen die Menschen, wieder gemeinsam und/oder allein zu nähen und zu stricken, alte Dinge aufzuwerten oder anders zu nutzen bzw. einfach kreativ zu sein? Ist es der Wunsch nach dem Besonderen, die Abgrenzung von Anderen, der wiedererwachte Sinn für Gemeinschaft oder die Freude an der praktischen Arbeit? Und nicht zuletzt, gibt es eine Verbindung von Handarbeit zu einer nachhaltig orientierten Lebensweise? Ist Handarbeit eine soziale Innovation?
Die Untersuchung basiert auf dem bereichsspezifischen Lebensstilkonzept, welches verschiedene gesellschaftliche Ebenen, die individuelle, gemeinschaftliche und gesellschaftliche Ebene, einschließt. Nach einer historischen Betrachtung der Handarbeit und einer ebenen-spezifischen Literaturschau einschließlich der Auswertung von Experteninterviews zum Thema Handarbeit erfolgt im empirischen Teil die Inhaltsanalyse von zwölf leitfadengestützten problemzentrierten Interviews mit Personen, die in ihrer Freizeit handarbeiten.
Die Untersuchung bestätigt die forschungsleitenden Annahmen. Es wird deutlich, dass bei der Herausbildung der Affinität zur Handarbeit alle drei gesellschaftlichen Ebenen relevant sind: Individuelle Vorerfahrungen und Motivationen spielen ebenso eine Rolle wie die Gemeinschaft und Vernetzung mit Anderen.Gesellschaftlich betrachtet zeigt die Arbeit, dass die historischen Brüche in der Bedeutung der Handarbeit für deren heutigen Stellenwert relevant sind. Handarbeit - und im weiteren Sinne DIY - wird als soziale Innovation wahrgenommen und kann bewusstseinsbildend hinsichtlich nachhaltig orientierter Lebensweisen wirken.
Der Bittergeschmack warnt den Organismus vor potentiell verdorbener oder giftiger Nahrung und ist somit ein wichtiger Kontrollmechanismus. Die initiale Detektion der zahlreich vorkommenden Bitterstoffe erfolgt bei der Maus durch 35 Bitterrezeptoren (Tas2rs), die sich im Zungengewebe befinden. Die Geschmacksinformation wird anschließend von der Zunge über das periphere (PNS) ins zentrale Nervensystem (ZNS) geleitet, wo deren Verarbeitung stattfindet. Die Verarbeitung der Geschmacksinformation konnte bislang nicht gänzlich aufgeklärt werden. Neue Studien deuten auf eine Expression von Tas2rs auch im PNS und ZNS entlang der Geschmacksbahn hin. Über Vorkommen und Aufgaben dieser Rezeptoren bzw. Rezeptorzellen im Nervensystem ist bislang wenig bekannt.
Im Rahmen dieser Arbeit wurde die Tas2r-Expression in verschiedenen Mausmodellen untersucht, Tas2r-exprimierende Zellen identifiziert und deren Funktionen bei der Übertragung der Geschmacksinformationen analysiert. Im Zuge der Expressionsanalysen mittels qRT-PCR konnte die Expression von 25 der 35 bekannten Bittergeschmacksrezeptoren im zentralen Nervensystem der Maus nachgewiesen werden. Die Expressionsmuster im PNS sowie im ZNS lassen darüber hinaus Vermutungen zu Funktionen in verschiedenen Bereichen des Nervensystems zu. Basierend auf den Ergebnissen der Expressionsanalysen war es möglich, stark exprimierte Tas2rs mittels In-situ-Hybridisierung in verschiedenen Zelltypen zu visualisieren. Des Weiteren konnten immunhistochemische Färbungen unter Verwendung eines genetisch modifizierten Mausmodells die Ergebnisse der Expressionsanalysen bestätigen. Sie zeigten eine Expression von Tas2rs, am Beispiel des Tas2r131-Rezeptors, in cholinergen, dopaminergen, GABAergen, noradrenergen und glycinerg-angesteuerten Projektionsneuronen sowie in Interneuronen. Die Ergebnisse der vorliegenden Arbeit zeigen daher erstmals das Vorkommen von Tas2rs in verschiedenen neuronalen Zelltypen in weiten Teilen des ZNS. Dies lässt den Schluss zu, dass Tas2r-exprimierende Zellen potentiell multiple Funktionen innehaben. Anhand von Verhaltensexperimenten in genetisch modifizierten Mäusen wurde die mögliche Funktion von Tas2r131-exprimierenden Neuronen (Tas2r131-Neurone) bei der Geschmackswahrnehmung untersucht. Die Ergebnisse weisen auf eine Beteiligung von Tas2r131-Neuronen an der Signalweiterleitung bzw. -verarbeitung der Geschmacksinformation für eine Auswahl von Bittersubstanzen hin. Die Analysen zeigen darüber hinaus, dass Tas2r131-Neuronen nicht an der Geschmackswahrnehmung anderer Bitterstoffe sowie Geschmacksstimuli anderer Qualitäten (süß, umami, sauer, salzig), beteiligt sind. Eine spezifische „Tas2r131-Bittergeschmacksbahn“, die mit anderen potentiellen „Bitterbahnen“ teils unabhängige, teils überlappende Signalwege bzw. Verarbeitungsbereiche besitzt, bildet eine mögliche zelluläre Grundlage zur Unterscheidung von Bitterstoffen. Die im Rahmen dieser Arbeit entstandene Hypothese einer potentiellen Diskriminierung von Bitterstoffen soll daher in weiterführenden Studien durch die Etablierung eines Verhaltenstest mit Mäusen geprüft werden.
Nachdem der Sicherheitsdienst der SS 1934 zum einzigen politischen Nachrichtendienst der NSDAP aufgestiegen war, entwickelten seine führenden Mitarbeiter ein ehrgeiziges Konzept zur Erfassung, Bewertung und praktischen Anwendung von Informationen über die Gegner des NS-Staates. Die Gegnerforscher im Amt II des Sicherheitshauptamtes versuchten so, politischen Einfluss auf die Partei- und Staatsführung des „Dritten Reiches“ zu nehmen. Ihre Analysen dienten auch zur Schulung und als Material für die exekutiv arbeitende Gestapo, lieferten also die materielle und ideologische Grundlage zur Verfolgung des „Gegners“ – Freimaurer, Juden, die „politischen Kirchen“, „Marxisten“ und Liberale. Unter den Gegnerforschern entstand ein gemeinsamer Denkstil. Daraus entwickelten sie Strategien zur Erkennung und Bekämpfung der Gegnergruppen und professionalisierten sie Mitte der 1930er-Jahre. Viele von ihnen wandten in den ersten Einsatzkommandos in Österreich, der Tschechoslowakei oder Polen, in den Stäben der Befehlshaber der Sicherheitspolizei und als „Judenberater“ genau die Methoden zur Gegnerbekämpfung an, die sie im Amt II des Sicherheitshauptamtes mitentwickelt hatten.
In the interest of producing functional catalysts from sustainable building-blocks, 1, 3-dicarboxylate imidazolium salts derived from amino acids were successfully modified to be suitable as N-Heterocyclic carbene (NHC) ligands within metal complexes. Complexes of Ag(I), Pd(II), and Ir(I) were successfully produced using known procedures using ligands derived from glycine, alanine, β-alanine and phenylalanine. The complexes were characterized in solid state using X-Ray crystallography, which allowed for the steric and electronic comparison of these ligands to well-known NHC ligands within analogous metal complexes.
The palladium complexes were tested as catalysts for aqueous-phase Suzuki-Miyaura cross-coupling. Water-solubility could be induced via ester hydrolysis of the N-bound groups in the presence of base. The mono-NHC–Pd complexes were seen to be highly active in the coupling of aryl bromides with phenylboronic acid; the active catalyst of which was determined to be mostly Pd(0) nanoparticles. Kinetic studies determined that reaction proceeds quickly in the coupling of bromoacetophenone, for both pre-hydrolyzed and in-situ hydrolysis catalyst dissolution. The catalyst could also be recycled for an extra run by simply re-using the aqueous layer.
The imidazolium salts were also used to produce organosilica hybrid materials. This was attempted via two methods: by post-grafting onto a commercial organosilica, and co-condensation of the corresponding organosilane. The co-condensation technique harbours potential for the production of solid-support catalysts.
Neue Systeme für triphile, fluorkohlenstofffreie Blockcopolymere in Form von Acrylat-basierten thermoresponsiven Blockcopolymeren sowie Acrylat- bzw. Styrol-basierten Terblock-Polyelektrolyten mit unterschiedlich chaotropen Kationen des jeweiligen polyanionischen Blocks wurden entwickelt. Multikompartiment-Mizellen, mizellare Aggregate mit ultrastrukturiertem hydrophobem Mizellkern die biologischen Strukturen wie dem Humanalbumin nachempfunden sind, sollten bei der Selbstorganisation in wässriger Umgebung entstehen. Durch Verwendung apolarer und polarer Kohlenwasserstoff-Domänen anstelle von fluorophilen Fluorkohlenstoff-Domänen sollte erstmals anhand solcher triphilen Systeme nachgewiesen werden, ob diese in der Lage zur selektiven Aufnahme hydrophober Substanzen in unterschiedliche Domänen des Mizellkerns sind.
Mit Hilfe von sequentieller RAFT-Polymerisation wurden diese neuen triphilen Systeme hergestellt, die über einen permanent hydrophilen, eine permanent stark hydrophoben und einen dritten Block verfügen, der durch externe Einflüsse, speziell die Induzierung eines thermischen Coil-to-globule-Übergangs bzw. die Zugabe von organischen, hydrophoben Gegenionen von einem wasserlöslichen in einen polar-hydrophoben Block umgewandelt werden kann. Als RAFT-Agens wurde 4-(Trimethylsilyl)benzyl(3-(trimethylsilyl)-propyl)-trithiocarbonat mit zwei unterschiedlichen TMS-Endgruppen verwendet, das kontrollierte Reaktions-bedingungen sowie die molekulare Charakterisierung der komplexen Copolymere ermöglichte.
Die beiden Grundtypen der linearen ternären Blockcopolymere wurden jeweils in zwei 2 Modell-Systeme, die geringfügig in ihren chemischen Eigenschaften sowie in dem Blocklängenverhältnis von hydrophilen und hydrophoben Polymersegmenten variierten, realisiert und unterschiedliche Permutation der Blöcke aufwiesen.
Als ersten Polymertyp wurden amphiphile thermoresponsive Blockcopolymere verwendet. Modell-System 1 bestand aus dem permanent hydrophoben Block Poly(1,3-Bis(butylthio)-prop-2-yl-acrylat), permanent hydrophilen Block Poly(Oligo(ethylenglykol)monomethyletheracrylat) und den thermoresponsiven Block Poly(N,N‘-Diethylacrylamid), dessen Homopolymer eine LCST-Phasenübergang (LCST, engl.: lower critical solution temperature) bei ca. 36°C aufweist. Das Modell-System 2 bestand aus dem permanent hydrophilen Block Poly(2-(Methylsulfinyl)ethylacrylat), dem permanent hydrophoben Block Poly(2-Ethylhexylacrylat) und wiederum Poly(N,N‘-Diethylacrylamid). Im ternären Blockcopolymer erhöhte sich, je nach Blocksequenz und relativen Blocklängen, der LCST-Übergang auf 50 – 65°C. Bei der Untersuchung der Selbstorganisation für die Polymer-Systeme dieses Typs wurde die Temperatur variiert, um verschieden mizellare Überstrukturen in wässriger Umgebung zu erzeugen bzw. oberhalb des LCST-Übergangs Multikompartiment-Mizellen nachzuweisen. Die Unterschiede in der Hydrophilie bzw. den sterischen Ansprüche der gewählten hydrophilen Blöcke sowie die Variation der jeweiligen Blocksequenzen ermöglichte darüber hinaus die Bildung verschiedenster Morphologien mizellarer Aggregate.
Der zweite Typ basierte auf ein Terblock-Polyelektrolyt-System mit Polyacrylaten bzw. Polystyrolen als Polymerrückgrat. Polymere ionische Flüssigkeiten wurden als Vorlage der Entwicklung zweier Modell-Systeme genommen. Eines der beiden Systeme bestand aus dem permanent hydrophilen Block Poly(Oligo(ethylenglykol)monomethyletheracrylat, dem permanent hydrophoben Block Poly(2-Ethylhexylacrylat) sowie dem Polyanion-Block Poly(3-Sulfopropylacrylat). Die Hydrophobie des Polyanion-Blocks variierte durch Verwendung großer organischer Gegenionen, nämlich Tetrabutylammonium, Tetraphenylphosphonium und Tetraphenylstibonium.
Analog wurde in einem weiteren System aus dem permanent hydrophilen Block Poly(4-Vinylbenzyltetrakis(ethylenoxy)methylether), dem permanent hydrophoben Block Poly(para-Methylstyrol) und Poly(4-Styrolsulfonat) mit den entsprechenden Gegenionen gebildet. Aufgrund unterschiedlicher Kettensteifigkeit in beiden Modell-Systemen sollte es bei der Selbstorganisation der mizellarer Aggregate zu unterschiedlichen Überstrukturen kommen.
Mittels DSC-Messungen konnte nachgewiesen werden, dass für alle Modell-Systeme die Blöcke in Volumen-Phase miteinander inkompatibel waren, was eine Voraussetzung für Multikompartimentierung von mizellaren Aggregaten ist. Die Größe mizellarer Aggregate sowie der Einfluss externer Einflüsse wie der Veränderung der Temperatur bzw. der Hydrophobie und Größe von Gegenionen auf den hydrodynamischen Durchmesser mittels DLS-Untersuchungen wurden für alle Modell-Systeme untersucht. Die Ergebnisse zu den thermoresponsiven ternären Blockcopolymeren belegten , dass sich oberhalb der Phasenübergangstemperatur des thermoresponsiven Blocks die Struktur der mizellaren Aggregate änderte, indem der p(DEAm)-Block scheinbar kollabierte und so zusammen mit den permanent hydrophoben Block den jeweiligen Mizellkern bildete. Nach gewisser Equilibrierungszeit konnten bei Raumtemperatur dir ursprünglichen mizellaren Strukturen regeneriert werden. Hingegen konnte für die Terblock-Polyelektrolyt-Systeme bei Verwendung der unterschiedlich hydrophoben Gegenionen kein signifikanter Unterschied in der Größe der mizellaren Aggregate beobachtet werden.
Zur Abbildung der mizellaren Aggregate mittels kryogene Transmissionselektronenmikroskopie (cryo-TEM) der mizellaren Aggregate war mit Poly(1,3-Bis(butylthio)-prop-2-yl-acrylat) ein Modell-System so konzipiert, dass ein erhöhter Elektronendichtekontrast durch Schwefel-Atome die Visualisierung ultrastrukturierter hydrophober Mizellkerne ermöglichte. Dieser Effekt sollte in den Terblock-Polyelektrolyt-Systemen auch durch die Gegenionen Tetraphenylphosphonium und Tetraphenylstibonium nachgestellt werden. Während bei den thermoresponsiven Systemen auch oberhalb des Phasenübergangs kein Hinweis auf Ultrastrukturierung beobachtet wurde, waren für die Polyelektrolyt-Systeme, insbesondere im Fall von Tetraphenylstibonium als Gegenion Überstrukturen zu erkennen. Der Nachweis der Bildung von Multikompartiment-Mizellen war für beide Polymertypen mit dieser abbildenden Methode nicht möglich. Die Unterschiede in der Elektronendichte einzelner Blöcke müsste möglicherweise weiter erhöht werden um Aussagen diesbezüglich zu treffen.
Die Untersuchung von ortsspezifischen Solubilisierungsexperimenten mit solvatochromen Fluoreszenzfarbstoffen mittels „steady-state“-Fluoreszenzspektroskopie durch Vergleich der Solubilisierungsorte der Terblockcopolymere bzw. –Polyelektrolyte mit den jeweiligen Solubilisierungsorten von Homopolymer- und Diblock-Vorstufen sollten den qualitativen Nachweis der Multikompartimentierung erbringen. Aufgrund der geringen Mengen an Farbstoff, die für die Solubilisierungsexperimente eingesetzt wurden zeigten DLS-Untersuchungen keine störenden Effekte der Sonden auf die Größe der mizellaren Aggregate. Jedoch erschwerten Quench-Effekte im Falle der Polyelektrolyt Modell-Systeme eine klare Interpretation der Daten. Im Falle der Modell-Systeme der thermoresponsiven Blockcopolymere waren dagegen deutliche solvatochrome Effekte zwischen der Solubilisierung in den mizellaren Aggregaten unterhalb und oberhalb des Phasenübergangs zu erkennen. Dies könnte ein Hinweis auf Multikompartimentierung oberhalb des LCST-Übergangs sein. Ohne die Informationen einer Strukturanalyse wie z.B. der Röntgen- oder Neutronenkleinwinkelstreuung (SAXS oder SANS), kann nicht abschließend geklärt werden, ob die Solubilisierung in mizellaren hydrophoben Domänen des kollabierten Poly(N,N‘-Diethylacrylamid) erfolgt oder in einer Mischform von mizellaren Aggregaten mit gemittelter Polarität.