Refine
Has Fulltext
- yes (2540) (remove)
Year of publication
Document Type
- Doctoral Thesis (2540) (remove)
Language
Keywords
- climate change (53)
- Klimawandel (51)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (22)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (406)
- Institut für Biochemie und Biologie (387)
- Institut für Geowissenschaften (328)
- Institut für Chemie (304)
- Extern (151)
- Institut für Umweltwissenschaften und Geographie (122)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (97)
- Hasso-Plattner-Institut für Digital Engineering GmbH (92)
- Department Psychologie (89)
With the recent growth of sensors, cloud computing handles the data processing of many applications. Processing some of this data on the cloud raises, however, many concerns regarding, e.g., privacy, latency, or single points of failure. Alternatively, thanks to the development of embedded systems, smart wireless devices can share their computation capacity, creating a local wireless cloud for in-network processing. In this context, the processing of an application is divided into smaller jobs so that a device can run one or more jobs.
The contribution of this thesis to this scenario is divided into three parts. In part one, I focus on wireless aspects, such as power control and interference management, for deciding which jobs to run on which node and how to route data between nodes. Hence, I formulate optimization problems and develop heuristic and meta-heuristic algorithms to allocate wireless and computation resources. Additionally, to deal with multiple applications competing for these resources, I develop a reinforcement learning (RL) admission controller to decide which application should be admitted. Next, I look into acoustic applications to improve wireless throughput by using microphone clock synchronization to synchronize wireless transmissions.
In the second part, I jointly work with colleagues from the acoustic processing field to optimize both network and application (i.e., acoustic) qualities. My contribution focuses on the network part, where I study the relation between acoustic and network qualities when selecting a subset of microphones for collecting audio data or selecting a subset of optional jobs for processing these data; too many microphones or too many jobs can lessen quality by unnecessary delays. Hence, I develop RL solutions to select the subset of microphones under network constraints when the speaker is moving while still providing good acoustic quality. Furthermore, I show that autonomous vehicles carrying microphones improve the acoustic qualities of different applications. Accordingly, I develop RL solutions (single and multi-agent ones) for controlling these vehicles.
In the third part, I close the gap between theory and practice. I describe the features of my open-source framework used as a proof of concept for wireless in-network processing. Next, I demonstrate how to run some algorithms developed by colleagues from acoustic processing using my framework. I also use the framework for studying in-network delays (wireless and processing) using different distributions of jobs and network topologies.
Among the multitude of geomorphological processes, aeolian shaping processes are of special character, Pedogenic dust is one of the most important sources of atmospheric aerosols and therefore regarded as a key player for atmospheric processes. Soil dust emissions, being complex in composition and properties, influence atmospheric processes and air quality and has impacts on other ecosystems. In this because even though their immediate impact can be considered low (exceptions exist), their constant and large-scale force makes them a powerful player in the earth system. dissertation, we unravel a novel scientific understanding of this complex system based on a holistic dataset acquired during a series of field experiments on arable land in La Pampa, Argentina. The field experiments as well as the generated data provide information about topography, various soil parameters, the atmospheric dynamics in the very lower atmosphere (4m height) as well as measurements regarding aeolian particle movement across a wide range of particle size classes between 0.2μm up to the coarse sand.
The investigations focus on three topics: (a) the effects of low-scale landscape structures on aeolian transport processes of the coarse particle fraction, (b) the horizontal and vertical fluxes of the very fine particles and (c) the impact of wind gusts on particle emissions.
Among other considerations presented in this thesis, it could in particular be shown, that even though the small-scale topology does have a clear impact on erosion and deposition patterns, also physical soil parameters need to be taken into account for a robust statistical modelling of the latter. Furthermore, specifically the vertical fluxes of particulate matter have different characteristics for the particle size classes. Finally, a novel statistical measure was introduced to quantify the impact of wind gusts on the particle uptake and its application on the provided data set. The aforementioned measure shows significantly increased particle concentrations during points in time defined as gust event.
With its holistic approach, this thesis further contributes to the fundamental understanding of how atmosphere and pedosphere are intertwined and affect each other.
Die Mehrzahl der Schlaganfallpatienten leidet unter Störungen der Gehfähigkeit. Die Behandlung der Folgen des Schlaganfalls stellt eine der häufigsten Indikationen für die neurologische Rehabilitation dar. Dabei steht die Wiederherstellung von sensomotorischen Funktionen, insbesondere der Gehfähigkeit, und der gesellschaftlichen Teilhabe im Vordergrund.
In Deutschland wird in der Gangrehabilitation nach Schlaganfall oft das Neurophysiologische Gangtraining nach Bobath (NGB) angewandt, das jedoch in seiner Effektivität kritisch gesehen wird. In Behandlungsleitlinien wird zuerst das Laufbandtraining (LT) empfohlen. Für diese Therapie liegen Wirknachweise für Verbesserungen in Gehgeschwindigkeit und Gehausdauer vor. Auch für die Rhythmisch-auditive Stimulation (RAS), dem ebenerdigen Gangtraining mit akustischer Stimulation liegt vergleichbare Evidenz für Schlaganfallpatienten vor.
Ziel der durchgeführten Studie war es, zu klären ob der Einsatz von RAS die Effektivität von LT verbessert. Es wurden die Auswirkungen eines 4-wöchigen musikgestützten Laufbandtrainings auf die Gangrehabilitation von Schlaganfallpatienten untersucht.
Für die Kombinationstherapie RAS mit Laufbandtraining (RAS-LT) wurde spezielle Trainingsmusik entwickelt. Diese wurde an die individuelle Laufbandkadenz des Patienten angepasst und in Abstimmung mit der Bandgeschwindigkeit systematisch gesteigert. Untersucht wurde, ob RAS-LT zu stärkeren Verbesserungen der Gehfähigkeit bei Schlaganfallpatienten führt als die Standardtherapien NGB und LT. Dazu wurde eine klinische Evaluation im prospektiven randomisierten und kontrollierten Parallelgruppendesign mit 45 Patienten nach Schlaganfall durchgeführt. 45 Patienten mit Hemiparese der unteren Extremität oder unsicherem und asymmetrischem Gangbild wurden in der Akutphase nach Schlaganfall eingeschlossen. Bei 10 Patienten wurde die Studie während der Interventionsphase abgebrochen, davon 1 Patient mit unerwünschter Nebenwirkung in Folge des LT.
Die verwendete Testbatterie umfasste neben Verfahren zur Bestimmung der Gehfunktion wie Fast Gait Speed Test, 3-min-Walking-Time-Test und der apparativen Ganganalyse mit dem Lokometer nach Bessou eine statische Posturographie und eine kinematische 2D-Ganganalyse auf dem Laufband. Diese Methode wurde in Erweiterung der bisherigen Studienlage in dieser Form erstmals für diese Fragestellung und dieses Patientenkollektiv konzipiert und eingesetzt. Sie ermöglichte eine differenzierte und seitenbezogene Beurteilung der Bewegungsqualität.
Die primären Endpunkte der Studie waren die longitudinalen Gangparameter Kadenz, Gehgeschwindigkeit und Schrittlänge. Als sekundäre Endpunkte dienten die Schrittsymmetrie, die Gehausdauer, das statische Gleichgewicht und die Bewegungsqualität des Gehens.
Prä-Post-Effekte wurden für die gesamte Stichprobe und für jede Gruppe durch T-Tests und wenn Normalverteilung nicht gegeben war mit dem Wilcoxon-Vorzeichen-Rangtest errechnet. Für die Ermittlung der Wirkungsunterschiede der 3 Interventionen wurde eine Kovarianzanalyse mit zwei Kovariaten durchgeführt: (1) der jeweilige Prä-Interventionsparameter und (2) die Zeit zwischen Akutereignis und Studienbeginn. Für einzelne Messparameter waren die Vorbedingungen der Kovarianzanalyse nicht erfüllt, sodass stattdessen ein Kruskal-Wallis H Test durchgeführt wurde. Das Signifikanzniveau wurde auf p < 0,05 und für gruppenspezifische Prä-Post-Effekte auf p > 0,016 gesetzt. Effektstärken wurden mit Cohens d berechnet.
Es wurden die Datensätze von 35 Patienten (RAS-LT: N = 11, LT: N = 13, NGB: N = 11) mit einem Alter von 63.6 ±8.6 Jahren, und mit einer Zeit zwischen Akutereignis und Beginn der Studie von 42.1 ±23.7 Tagen ausgewertet. In der statistischen Auswertung zeigten sich in der Nachuntersuchung stärkere Verbesserungen durch RAS-LT in der Kadenz (F(2,34) = 7.656, p = 0.002; partielles η2 = 0.338), wobei auch die Gruppenkontraste signifikante Unterschiede zugunsten von RAS-LT aufwiesen und eine Tendenz zu stärkerer Verbesserung in der Gehgeschwindigkeit (F(2,34) = 3.864, p = 0.032; partielles η2 = 0.205). Auch die Ergebnisse zur Schrittsymmetrie und zur Bewegungsqualität deuteten auf eine Überlegenheit des neuen Therapieansatzes RAS-LT hin, obgleich dort keine statistischen Signifikanzen im Gruppenvergleich erreicht wurden. Die Parameter Schrittlänge, Gehausdauer und die Werte zum statischen Gleichgewicht zeigten keine spezifischen Effekte von RAS-LT.
Die Studie liefert erstmals Anhaltspunkte für eine klinische Überlegenheit von RAS-LT gegenüber den Standardtherapien. Die weitere Entwicklung und Beforschung dieses innovativen Therapieansatzes können in Zukunft zu einer verbesserten Gangrehabilitation von Patienten nach Schlaganfall beitragen.
Folgt tatsächlich aus einem liberalen Wertekanon eine generative Selbstbestimmung, eine weitgehende elterliche Handlungsfreiheit bei eugenischen Maßnahmen, wie es Vertreter einer „liberalen Eugenik“ versichern? Diese Arbeit diskutiert die Rolle Staates und die Handlungsspielräume der Eltern bei der genetischen Gestaltung von Nachkommen im Rahmen eines liberalen Wertverständnisses.
Den Schwerpunkt/Fokus der Betrachtungen liegt hier Maßnahmen des genetic enhancement.
Darüber hinaus wird auch das Verhältnis der „liberalen Eugenik“ zur „autoritären Eugenik“ neu beleuchtet.
Die Untersuchung beginnt bei der Analyse zentraler liberaler Werte und Normen, wie Freiheit, Autonomie und Gerechtigkeit und deren Funktionen in der „liberalen Eugenik“. Wobei nur sehr eingeschränkt von der „liberalen Eugenik“ gesprochen werden kann, sondern viel mehr von Varianten einer „liberalen Eugenik“.
Darüber hinaus wird in dieser Arbeit die historische Entwicklung der „liberalen“ und der „autoritären Eugenik“, speziell des Sozialdarwinismus, untersucht und verglichen, insbesondere im Hinblick auf liberale Werte und Normen und der generativen Selbstbestimmung.
Den Kern der Arbeit bildet der Vergleich der „liberalen Eugenik“ mit der „liberalen Erziehung“. Da hier die grundlegenden Aufgaben der Eltern, aber auch des Staates, analysiert und deren Verhältnis diskutiert wird.
Es zeigt sich, dass sich aus einem liberalen Wertverständnisses heraus keine umfangreiche generative Selbstbestimmung ableiten lässt, sondern sich viel mehr staatlich kontrollierte enge Grenzen bei eugenischen Maßnahmen zum Wohle der zukünftigen Person, begründen.
Zudem wurde der Weg zur autoritären Eugenik nicht durch die Abkehr von der generativen Selbstbestimmung geebnet, sondern viel mehr durch die Übertragung des Fortschrittsgedankens auf den Menschen selbst. Damit verliert die generative Selbstbestimmung auch ihre Funktion als Brandmauer gegen eine autoritäre Eugenik. Nicht der Verlust der generativen Selbstbestimmung, sondern viel mehr die Idee der Perfektionierung des Menschen muss kritisch betrachtet und letztlich abgelehnt werden.
Ohne generative Selbstbestimmung und einer Perfektionierung des Menschen, bleibt nur eine Basis-Eugenik, bei der die Entwicklungsfähigkeit des Menschen sichergestellt wird, nicht jedoch seine Verbesserung.
Darüber hinaus muss auch über eine Entwicklungsmöglichkeit des zukünftigen Menschen gesprochen werden, d. h. ein minimales Potential zu gesellschaftlicher Integration muss gegeben sein. Nur wenn tatsächlich keine Möglichkeiten seitens der Gesellschaft bestehen eine Person zu integrieren und dieser eine Entwicklungsmöglichkeit zu bieten, wären eugenische Maßnahmen als letztes Mittel akzeptabel.
Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur
(2010)
Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert.
Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik.
Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse.
Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen.
Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten.
Knowledge-intensive business processes are flexible and data-driven. Therefore, traditional process modeling languages do not meet their requirements: These languages focus on highly structured processes in which data plays a minor role. As a result, process-oriented information systems fail to assist knowledge workers on executing their processes. We propose a novel case management approach that combines flexible activity-centric processes with data models, and we provide a joint semantics using colored Petri nets. The approach is suited to model, verify, and enact knowledge-intensive processes and can aid the development of information systems that support knowledge work.
Knowledge-intensive processes are human-centered, multi-variant, and data-driven. Typical domains include healthcare, insurances, and law. The processes cannot be fully modeled, since the underlying knowledge is too vast and changes too quickly. Thus, models for knowledge-intensive processes are necessarily underspecified. In fact, a case emerges gradually as knowledge workers make informed decisions. Knowledge work imposes special requirements on modeling and managing respective processes. They include flexibility during design and execution, ad-hoc adaption to unforeseen situations, and the integration of behavior and data. However, the predominantly used process modeling languages (e.g., BPMN) are unsuited for this task.
Therefore, novel modeling languages have been proposed. Many of them focus on activities' data requirements and declarative constraints rather than imperative control flow. Fragment-Based Case Management, for example, combines activity-centric imperative process fragments with declarative data requirements. At runtime, fragments can be combined dynamically, and new ones can be added. Yet, no integrated semantics for flexible activity-centric process models and data models exists.
In this thesis, Wickr, a novel case modeling approach extending fragment-based Case Management, is presented. It supports batch processing of data, sharing data among cases, and a full-fledged data model with associations and multiplicity constraints. We develop a translational semantics for Wickr targeting (colored) Petri nets. The semantics assert that a case adheres to the constraints in both the process fragments and the data models. Among other things, multiplicity constraints must not be violated. Furthermore, the semantics are extended to multiple cases that operate on shared data. Wickr shows that the data structure may reflect process behavior and vice versa. Based on its semantics, prototypes for executing and verifying case models showcase the feasibility of Wickr. Its applicability to knowledge-intensive and to data-centric processes is evaluated using well-known requirements from related work.
The dissertation examines the use of performance information by public managers. “Use” is conceptualized as purposeful utilization in order to steer, learn, and improve public services. The main research question is: Why do public managers use performance information? To answer this question, I systematically review the existing literature, identify research gaps and introduce the approach of my dissertation. The first part deals with manager-related variables that might affect performance information use but which have thus far been disregarded. The second part models performance data use by applying a theory from social psychology which is based on the assumption that this management behavior is conscious and reasoned. The third part examines the extent to which explanations of performance information use vary if we include others sources of “unsystematic” feedback in our analysis. The empirical results are based on survey data from 2011. I surveyed middle managers from eight selected divisions of all German cities with county status (n=954). To analyze the data, I used factor analysis, multiple regression analysis, and structural equation modeling. My research resulted in four major findings: 1) The use of performance information can be modeled as a reasoned behavior which is determined by the attitude of the managers and of their immediate peers. 2) Regular users of performance data surprisingly are not generally inclined to analyze abstract data but rather prefer gathering information through personal interaction. 3) Managers who take on ownership of performance information at an early stage in the measurement process are also more likely to use this data when it is reported to them. 4) Performance reports are only one source of information among many. Public managers prefer verbal feedback from insiders and feedback from external stakeholders over systematic performance reports. The dissertation explains these findings using a deductive approach and discusses their implications for theory and practice.
Background: The worldwide prevalence of diabetes has been increasing in recent years, with a projected prevalence of 700 million patients by 2045, leading to economic burdens on societies. Type 2 diabetes mellitus (T2DM), representing more than 95% of all diabetes cases, is a multifactorial metabolic disorder characterized by insulin resistance leading to an imbalance between insulin requirements and supply. Overweight and obesity are the main risk factors for developing type 2 diabetes mellitus. The lifestyle modification of following a healthy diet and physical activity are the primary successful treatment and prevention methods for type 2 diabetes mellitus. Problems may exist with patients not achieving recommended levels of physical activity. Electrical muscle stimulation (EMS) is an increasingly popular training method and has become in the focus of research in recent years. It involves the external application of an electric field to muscles, which can lead to muscle contraction. Positive effects of EMS training have been found in healthy individuals as well as in various patient groups. New EMS devices offer a wide range of mobile applications for whole-body electrical muscle stimulation (WB-EMS) training, e.g., the intensification of dynamic low-intensity endurance exercises through WB-EMS. This dissertation project aims to investigate whether WB-EMS is suitable for intensifying low-intensive dynamic exercises such as walking and Nordic walking.
Methods: Two independent studies were conducted. The first study aimed to investigate the reliability of exercise parameters during the 10-meter Incremental Shuttle Walk Test (10MISWT) using superimposed WB-EMS (research question 1, sub-question a) and the difference in exercise intensity compared to conventional walking (CON-W, research question 1, sub-question b). The second study aimed to compare differences in exercise parameters between superimposed WB-EMS (WB-EMS-W) and conventional walking (CON-W), as well as between superimposed WB-EMS (WB-EMS-NW) and conventional Nordic walking (CON-NW) on a treadmill (research question 2). Both studies took place in participant groups of healthy, moderately active men aged 35-70 years. During all measurements, the Easy Motion Skin® WB-EMS low frequency stimulation device with adjustable intensities for eight muscle groups was used. The current intensity was individually adjusted for each participant at each trial to ensure safety, avoiding pain and muscle cramps. In study 1, thirteen individuals were included for each sub question. A randomized cross-over design with three measurement appointments used was to avoid confounding factors such as delayed onset muscle soreness. The 10MISWT was performed until the participants no longer met the criteria of the test and recording five outcome measures: peak oxygen uptake (VO2peak), relative VO2peak (rel.VO2peak), maximum walk distance (MWD), blood lactate concentration, and the rate of perceived exertion (RPE).
Eleven participants were included in study 2. A randomized cross-over design in a study with four measurement appointments was used to avoid confounding factors. A treadmill test protocol at constant velocity (6.5 m/s) was developed to compare exercise intensities. Oxygen uptake (VO2), relative VO2 (rel.VO2) blood lactate, and the RPE were used as outcome variables. Test-retest reliability between measurements was determined using a compilation of absolute and relative measures of reliability. Outcome measures in study 2 were studied using multifactorial analyses of variances.
Results: Reliability analysis showed good reliability for VO2peak, rel.VO2peak, MWD and RPE with no statistically significant difference for WB-EMS-W during 10WISWT. However, differences compared to conventional walking in outcome variables were not found. The analysis of the treadmill tests showed significant effects for the factors CON/WB-EMS and W/NW for the outcome variables VO2, rel.VO2 and lactate, with both factors leading to higher results. However, the difference in VO2 and relative VO2 is within the range of biological variability of ± 12%. The factor combination EMS∗W/NW is statistically non-significant for all three variables. WB-EMS resulted in the higher RPE values, RPE differences for W/NW and EMS∗W/NW were not significant.
Discussion: The present project found good reliability for measuring VO2peak, rel. VO2peak, MWD and RPE during 10MISWT during WB-EMS-W, confirming prior research of the test. The test appears technically limited rather than physiologically in healthy, moderately active men. However, it is unsuitable for investigating differences in exercise intensities using WB-EMS-W compared to CON-W due to different perceptions of current intensity between exercise and rest. A treadmill test with constant walking speed was conducted to adjust individual maximum tolerable current intensity for the second part of the project. The treadmill test showed a significant increase in metabolic demands during WB-EMS-W and WB-EMS-NW by an increased VO2 and blood lactate concentration. However, the clinical relevance of these findings remains debatable. The study also found that WB-EMS superimposed exercises are perceived as more strenuous than conventional exercise. While in parts comparable studies lead to higher results for VO2, our results are in line with those of other studies using the same frequency. Due to the minor clinical relevance the use of WB-EMS as exercise intensification tool during walking and Nordic walking is limited. High device cost should be considered. Habituation to WB-EMS could increase current intensity tolerance and VO2 and make it a meaningful method in the treatment of T2DM. Recent figures show that WB-EMS is used in obese people to achieve health and weight goals. The supposed benefit should be further investigated scientifically.
This study explores the identity of the Bene Israel caste from India and its assimilation into Israeli society. The large immigration from India to Israel started in the early 1950s and continued until the early 1970s. Initially, these immigrants struggled hard as they faced many problems such as the language barrier, cultural differences, a new climate, geographical isolation, and racial discrimination. This analysis focuses on the three major aspects of the integration process involving the Bene Israel: economic, socio-cultural and political. The study covers the period from the early fifties to the present.
I will focus on the origin of the Bene Israel, which has evolved after their immigration to Israel; from a Hindu–Muslim lifestyle and customs they integrated into the Jewish life of Israel. Despite its ethnographic nature, this study has theological implications as it is an encounter between Jewish monotheism and Indian polytheism.
All the western scholars who researched the Bene Israel community felt impelled to rely on information received by community members themselves. No written historical evidence recorded Bene Israel culture and origin. Only during the nineteenth century onwards, after the intrusion of western Jewish missionaries, were Jewish books translated into Marathi . Missionary activities among the Bene Israel served as a catalyst for the Bene Israel themselves to investigate their historical past . Haeem Samuel Kehimkar (1830-1908), a Bene Israel teacher, wrote notes on the history of the Bene Israel in India in Marathi in 1897. Brenda Ness wrote in her dissertation:
The results [of the missionary activities] are several works about the community in English and Marathi by Bene-Israel authors which have appeared during the last century. These are, for the most part, not documented; they consist of much theorizing on accepted tradition and tend to be apologetic in nature.
There can be no philosophical explanation or rational justification for an entire community to leave their motherland India, and enter into a process of annihilation of its own free will. I see this as a social and cultural suicide. In craving for a better future in Israel, the Indian Bene Israel community pays an enormously heavy price as a people that are today discarded by the East and disowned by the West: because they chose to become something that they never were and never could be. As it is written, “know where you came from, and where you are going.” A community with an ancient history from a spiritual culture has completely lost its identity and self-esteem.
In concluding this dissertation, I realize the dilemma with which I have confronted the members of the Bene Israel community which I have reviewed after strenuous and constant self-examination. I chose to evolve the diversifications of the younger generations urges towards acceptance, and wish to clarify my intricate analysis of this controversial community. The complexity of living in a Jewish State, where citizens cannot fulfill their basic desires, like matrimony, forced an entire community to conceal their true identity and perjure themselves to blend in, for the sake of national integration. Although scholars accepted their new claims, the skepticism of the rabbinate authorities prevails, and they refuse to marry them to this day, suspecting they are an Indian caste.
Dispersal behavior plays an important role for the geographical distribution and population structure of any given species. Individual’s fitness, reproductive and competitive ability, and dispersal behavior can be determined by the age of the individual. Age-dependent as well as density-dependent dispersal patterns are common in many bird species. In this thesis, I first present age-dependent breeding ability and natal site fidelity in white storks (Ciconia ciconia); migratory birds breeding in large parts of Europe. I predicted that both the proportion of breeding birds and natal site fidelity increase with the age. After the seventies of the last century, following a steep population decline, a recovery of the white stork population has been observed in many regions in Europe. Increasing population density in the white stork population in Eastern Germany especially after 1983 allowed examining density- as well as age-dependent breeding dispersal patterns. Therefore second, I present whether: young birds show more often and longer breeding dispersal than old birds, and frequency of dispersal events increase with the population density increase, especially in the young storks. Third, I present age- and density-dependent dispersal direction preferences in the give population. I asked whether and how the major spring migration direction interacts with dispersal directions of white storks: in different age, and under different population densities. The proportion of breeding individuals increased in the first 22 years of life and then decreased suggesting, the senescent decay in aging storks. Young storks were more faithful to their natal sites than old storks probably due to their innate migratory direction and distance. Young storks dispersed more frequently than old storks in general, but not for longer distance. Proportion of dispersing individuals increased significantly with increasing population densities indicating, density- dependent dispersal behavior in white storks. Moreover, the finding of a significant interaction effects between the age of dispersing birds and year (1980–2006) suggesting, older birds dispersed more from their previous nest sites over time due to increased competition. Both young and old storks dispersed along their spring migration direction; however, directional preferences were different in young storks and old storks. Young storks tended to settle down before reaching their previous nest sites (leading to the south-eastward dispersal) while old birds tended to keep migrating along the migration direction after reaching their previous nest sites (leading to the north-westward dispersal). Cues triggering dispersal events may be age-dependent. Changes in the dispersal direction over time were observed. Dispersal direction became obscured during the second half of the observation period (1993–2006). Increase in competition may affect dispersal behavior in storks. I discuss the potential role of: age for the observed age-dependent dispersal behavior, and competition for the density dependent dispersal behavior. This Ph.D. thesis contributes significantly to the understanding of population structure and geographical distribution of white storks. Moreover, presented age- and density (competition)-dependent dispersal behavior helps understanding underpinning mechanisms of dispersal behavior in bird species.
The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information.
What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis
(2006)
Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined.
Countries processing raw coffee beans are burdened with low economical incomes to fight the serious environmental problems caused by the by-products and wastewater that is generated during the wet-coffee processing. The aim of this work was to develop alternative methods of improving the waste by-product quality and thus making the process economically more attractive with valorization options that can be brought to the coffee producers.
The type of processing influences not only the constitution of green coffee but also of by-products and wastewater. Therefore, coffee bean samples as well as by-products and wastewater collected at different production steps of were analyzed. Results show that the composition of wastewater is dependent on how much and how often the wastewater is recycled in the processing. Considering the coffee beans, results indicate that the proteins might be affected during processing and a positive effect of the fermentation on the solubility and accessibility of proteins seems to be probable. The steps of coffee processing influence the different constituents of green coffee beans which, during roasting, give rise to aroma compounds and express the characteristics of roasted coffee beans. Knowing that this group of compounds is involved in the Maillard reaction during roasting, this possibility could be utilized for the coffee producers to improve the quality of green coffee beans and finally the coffee cup quality.
The valorization of coffee wastes through modification to activated carbon has been considered as a low-cost option creating an adsorbent with prospective to compete with commercial carbons. Activation protocol using spent coffee and parchment was developed and prepared to assess their adsorption capacity for organic compounds. Spent coffee grounds and parchment proved to have similar adsorption efficiency to commercial activated carbon.
The results of this study document a significant information originating from the processing of the de-pulped to green coffee beans. Furthermore, it showed that coffee parchment and spent coffee grounds can be valorized as low-cost option to produce activated carbons. Further work needs to be directed to the optimization of the activation methods to improve the quality of the materials produced and the viability of applying such experiments in-situ to bring the coffee producer further valorization opportunities with environmental perspectives.
Coffee producers would profit in establishing appropriate simple technologies to improve green coffee quality, re-use coffee by-products, and wastewater valorization.
In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models.
Das Centrosom von Dictyostelium ist acentriolär aufgebaut, misst ca. 500 nm und besteht aus einer dreischichten Core-Struktur mit umgebender Corona, an der Mikrotubuli nukleieren. In dieser Arbeit wurden das centrosomale Protein Cep192 und mögliche Interaktionspartner am Centrosom eingehend untersucht. Die einleitende Lokalisationsuntersuchung von Cep192 ergab, dass es während der gesamten Mitose an den Spindelpolen lokalisiert und im Vergleich zu den anderen Strukturproteinen der Core-Struktur am stärksten exprimiert ist. Die dauerhafte Lokalisation an den Spindelpolen während der Mitose wird für Proteine angenommen, die in den beiden identisch aufgebauten äußeren Core-Schichten lokalisieren, die das mitotische Centrosom formen. Ein Knockdown von Cep192 führte zur Ausbildung von überzähligen Mikrotubuli-organisierenden Zentren (MTOC) sowie zu einer leicht erhöhten Ploidie. Deshalb wird eine Destabilisierung des Centrosoms durch die verminderte Cep192-Expression angenommen. An Cep192 wurden zwei kleine Tags, der SpotH6- und BioH6-Tag, etabliert, die mit kleinen fluoreszierenden Nachweiskonjugaten markiert werden konnten. Mit den so getagten Proteinen konnte die hochauflösende Expansion Microscopy für das Centrosom optimiert werden und die Core-Struktur erstmals proteinspezifisch in der Fluoreszenzmikroskopie dargestellt werden. Cep192 lokalisiert dabei in den äußeren Core-Schichten. Die kombinierte Markierung von Cep192 und den centrosomalen Proteinen CP39 und CP91 in der Expansion Microscopy erlaubte die Darstellung des dreischichtigen Aufbaus der centrosomalen Core-Struktur, wobei CP39 und CP91 zwischen Cep192 in der inneren Core-Schicht lokalisieren. Auch die Corona wurde in der Expansion Microscopy untersucht: Das Corona-Protein CDK5RAP2 lokalisiert in räumlicher Nähe zu Cep192 in der inneren Corona. Ein Vergleich der Corona-Proteine CDK5RAP2, CP148 und CP224 in der Expansion Microscopy ergab unterscheidbare Sublokalisationen der Proteine innerhalb der Corona und relativ zur Core-Struktur. In Biotinylierungsassays mit den centrosomalen Core-Proteinen CP39 und CP91 sowie des Corona-Proteins CDK5RAP2 konnte Cep192 als möglicher Interaktionspartner identifiziert werden.
Die Ergebnisse dieser Arbeit zeigen die wichtige Funktion des Proteins Cep192 im Dictyostelium-Centrosom und ermöglichen durch die Kombination aus Biotinylierungsassays und Expansion Microscopy der untersuchten Proteine ein verbessertes Verständnis der Topologie des Centrosoms.
Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden.
Die Arbeit untersucht erstmals die evangelischen Vereine für weibliche Jugendliche, die so genannten Jungfrauenvereine, von ihrer Entstehung in den 1840er Jahren bis zum 1. Weltkrieg, sowie insbesondere den 1893 gegründeten Verband der evangelischen Jungfrauenvereine Deutschlands (später Evangelischer Verband zur Pflege der weiblichen Jugend Deutschlands, ab 1929 Evangelischer Reichsverband weiblicher Jugend). In der ersten Hälfte des 19. Jahrhundert begann ein Teil des protestantischen Bürgertums damit, für die hochmobilen Unterschichts-Jugendlichen, die im Zuge der Industrialisierung als Handwerksgesellen und Dienstmädchen, später als Fabrikarbeiter und -arbeiterinnen in die expandierenden Großstädten gingen, Herbergen und Vereine zu gründen. Damit trugen die Initiatoren wesentlich zur Entstehung eines öffentliches Bewusstsein für die prekäre Lebenssituation der Unterschichtsjugend und für die Notwendigkeit präventiver Jugendarbeit bei. Der Verband initiierte dann in den Jahren um 1900 zahlreiche innovative soziale Projekte in der weiblichen Jugendpflege und Jugendfürsorge. Die Arbeit untersucht drei Bereiche: 1. Vereine (sog. Abendheime) und Wohnheime für Fabrikarbeiterinnen; 2. die 1894 begonnene Bahnhofmission, die sich der mobilen weiblichen Jugendlichen direkt an die Bahnhöfen annahm; 3. Erholungshäuser für erwerbstätige Jugendliche. Bei allen Initiativen arbeitete der Verband eng mit seinem lokalen Partner, dem Berliner Verein zur Fürsorge für die weibliche Jugend zusammen, der neue Arbeitsbereiche in der Praxis testete. Neben der Verbandsgeschichte im engeren Sinne thematisiert die Untersuchung auch die Konzeption und die Inhalte der Vereinsarbeit. Orientiert an dem Konzept einer christlichen Persönlichkeitsbildung sollte die Vereinsarbeit möglichst viele Bereiche jugendlichen Lebens umfassen: Arbeit (inkl. Erholungsurlaub), Wohnen, Freizeit (Geselligkeit, Lektüre), Gesundheit und Bildung. Da jedoch aufgrund der Orientierung an einem konservativen Frauenbild der Bereich jugendlicher Sexualität bewusst ausgeklammert wurde, erreichte man mit diesem Konzept präventiver Jugendarbeit im wesentlichen nur die ohnehin wohlanständigen Jugendlichen. Die Spannung zwischen einem konservativen Frauenbild einerseits und den modernisierenden Impulsen einer Jugendarbeit mit weiblichen Jugendlichen andererseits zeigt sich auch daran, dass der Verband durch die Gründung eines Berufsverbandes für Sozialarbeiterinnen (Verband der Berufsarbeiterinnen der Inneren Mission) und der Einrichtung von Ausbildungsstätten wesentlichen Anteil an den modernisierenden Prozessen der Verberuflichung der sozialen Arbeit und der kirchlichen Jugendpflege zu Berufen bürgerlicher Frauen hatte.
Die vorliegende Arbeit wurde im Zeitraum von Oktober 2002 bis November 2005 an dem Institut für Biochemie und Biologie der Universität Potsdam in Kooperation mit dem Institut für Chemie des GKSS Forschungszentrums in Teltow unter der Leitung von Herrn Prof. Dr. B. Micheel und Herrn Prof. Dr. Th. Groth angefertigt. Im Rahmen dieser Arbeit wurden die Wechselwirkungen von Immunzellen mit verschiedenen Kultursubstraten untersucht. Dafür wurden drei verschiedene Hybridomzelllinien eingesetzt. Eine Hybridomzelllinie (K2) ist im Laufe dieser Arbeit hergestellt und etabliert worden. Der Einsatz von synthetischen und proteinbeschichteten Kulturoberflächen führte bei Hybridomzellen zu einer deutlich gesteigerten Antikörpersynthese im Vergleich zu herkömmlichen Zellkulturmaterialien. Obwohl diese Zellen in der Regel als Suspensionszellen kultiviert werden, führten die eingesetzten Polymermembranen (PAN, NVP) zu einer verbesserten Antikörpersynthese (um 30%) gegenüber Polystyrol als Referenz. Es konnte gezeigt werden, dass es einen Zusammenhang zwischen der Produktivität und dem Adh asionsverhalten der Hybridomzellen gibt. Um den Einfluss von Proteinen der extrazellulären Matrix auf Zellwachstum und Antikörpersynthese von Hybridomzellen zu untersuchen, wurden proteinbeschichtete Polystyrol-Oberflächen eingesetzt. Für die Modifikationen wurden Fibronektin, Kollagen I, Laminin und BSA ausgewählt. Die Modifikation der Polystyrol-Oberfläche mit geringen Mengen Fibronektin (0,2-0,4 µg/ml) führte zu einer beträchtlichen Steigerung der Antikörpersynthese um 70-120%. Für Kollagen I- und BSA-Beschichtungen konnten Steigerungen von 40% beobachtet werden. Modifikationen der Polystyrol-Oberfläche mit Laminin zeigten nur marginale Effekte. Durch weitere Versuche wurde bestätigt, dass die Adhäsion der Zellen an Kollagen I- und Laminin-beschichteten Oberflächen verringert ist. Die alpha2-Kette des alpha2beta1-Integrins konnte auf der Zelloberfläche nicht nachgewiesen werden. Durch ihr Fehlen wird wahrscheinlich die Bindungsfähigkeit der Zellen an Kollagen I und Laminin beeinflusst. Durch die Ergebnisse konnte gezeigt werden, dass Hybridomzellen nicht nur Suspensionszellen sind und das Kultursubstrate das Zellwachstum und die Produktivität dieser Zellen stark beeinflussen können. Der Einsatz von synthetischen und proteinbeschichteten Kultursubstraten zur Steigerung der Antikörpersynthese kann damit für die industrielle Anwendung von großer Relevanz sein. Für die Modellierung einer Lymphknotenmatrix wurden Fibronektin, Kollagen I, Heparansulfat und N-Acetylglucosamin-mannose in verschiedenen Kombinationen an Glasoberflächen adsorbiert und für Versuche zur In-vitro-Immunisierung eingesetzt. Es konnte gezeigt werden, dass die Modifikation der Oberflächen die Aktivierung und Interaktion von dendritischen Zellen, T- und B-Lymphozyten begünstigt, was durch den Nachweis spezifischer Interleukine (IL12, IL6) und durch die Synthese spezifischer Antikörper bestätigt wurde. Eine spezifische Immunreaktion gegen das Antigen Ovalbumin konnte mit den eingesetzten Zellpopulationen aus Ovalbumin-T-Zell-Rezeptor-transgenen Mäusen nachgewiesen werden. Die In-vitro-Immunantwort wurde dabei am stärksten durch eine Kombination von Kollagen I, Heparansulfat und N-Acetylglucosamin-mannose auf einer Glasoberfläche gefördert. Die Etablierung einer künstlichen Immunreaktion kann eine gesteuerte Aktivierung bzw. Inaktivierung von körpereigenen dendritischen Zellen gegen bestehende Krankheitsmerkmale in vitro ermöglichen. Durch die Versuche wurden Grundlagen für spezifische Immunantworten erarbeitet, die u.a. für die Herstellung von humanen Antikörpern eingesetzt werden können.
Weltweit versuchen Wissenschaftler, künstliche Viren für den Gentransfer zu konstruieren, die nicht reproduktionsfähig sind. Diese sollen die Vorteile der natürlichen Viren besitzen (effizienter Transport von genetischem Material), jedoch keine Antigene auf ihrer Oberfläche tragen, die Immunreaktionen auslösen. Ziel dieses Projektes ist es, einen künstlichen Viruspartikel herzustellen, dessen Basis eine Polyelektrolytenhohlkugel bildet, die mit einer Lipiddoppelschicht bedeckt ist. Um intakte Doppelschichten zu erzeugen, muss die Wechselwirkung zwischen Lipid und Polyelektrolyt (z.B. DNA) verstanden und optimiert werden. Dazu ist es notwendig, die strukturelle Grundlage der Interaktion aufzuklären. Positiv geladene Lipide gehen zwar starke Wechselwirkungen mit der negativ geladenen DNA ein, sie wirken jedoch toxisch auf biologische Zellen. In der vorliegenden Arbeit wurde daher die durch zweiwertige Kationen vermittelte Kopplung von genomischer oder Plasmid-DNA an zwitterionische oder negativ geladene Phospholipide an zwei Modellsystemen untersucht. 1. Modellsystem: Lipidmonoschicht an der Wasser/Luft-Grenzfläche Methoden: Filmwaagentechnik in Kombination mit IR-Spektroskopie (IRRAS), Röntgenreflexion (XR), Röntgendiffraktion (GIXD), Brewsterwinkel-Mikroskopie (BAM), Röntgenfluoreszenz (XRF) und Oberflächenpotentialmessungen Resultate: A) Die Anwesenheit der zweiwertigen Kationen Ba2+, Mg2+, Ca2+ oder Mn2+ in der Subphase hat keinen nachweisbaren Einfluss auf die Struktur der zwitterionischen DMPE- (1,2-Dimyristoyl-phosphatidyl-ethanolamin) Monoschicht. B) In der Subphase gelöste DNA adsorbiert nur in Gegenwart dieser Kationen an der DMPE-Monoschicht. C) Sowohl die Adsorption genomischer Kalbsthymus-DNA als auch der Plasmid-DNA pGL3 bewirkt eine Reduktion des Neigungswinkels der Alkylketten, die auf einen veränderten Platzbedarf der Kopfgruppe zurückzuführen ist. Durch die Umorientierung der Kopfgruppe wird die elektrostatische Wechselwirkung zwischen den positiv geladenen Stickstoffatomen der Lipidkopfgruppen und den negativ geladenen DNA-Phosphaten erhöht. D) Die adsorbierte DNA weist eine geordnete Struktur auf, wenn sie durch Barium-, Magnesium-, Calcium- oder Manganionen komplexiert ist. Der Abstand zwischen parallelen DNA-Strängen hängt dabei von der Größe der DNA-Fragmente sowie von der Art des Kations ab. Die größten Abstände ergeben sich mit Bariumionen, gefolgt von Magnesium- und Calciumionen. Die kleinsten DNA-Abstände werden durch Komplexierung mit Manganionen erhalten. Diese Ionenreihenfolge stellt sich sowohl für genomische DNA als auch für Plasmid-DNA ein. E) Die DNA-Abstände werden durch die Kompression des Lipidfilms nicht beeinflusst. Zwischen der Lipidmonoschicht und der adsorbierten DNA besteht demnach nur eine schwache Wechselwirkung. Offensichtlich befindet sich die durch zweiwertige Kationen komplexierte DNA als weitgehend eigenständige Schicht unter dem Lipidfilm. 2. Modellsystem: Lipiddoppelschicht an der fest/flüssig-Grenzfläche Methoden: Neutronenreflexion (NR) und Quarzmikrowaage (QCM-D) Resultate: A) Das zwitterionische Phospholipid DMPC (1,2-Dimyristoyl-phosphatidylcholin) bildet keine Lipiddoppelschicht auf planaren Polyelektrolytmultischichten aus, deren letzte Lage das positiv geladene PAH (Polyallylamin) ist. B) Hingegen bildet DMPC auf dem negativ geladenen PSS (Polystyrolsulfonat) eine Doppelschicht aus, die jedoch Defekte aufweist. C) Eine Adsorption von genomischer Kalbsthymus-DNA auf dieser Lipidschicht findet nur in Gegenwart von Calciumionen statt. Andere zweiwertige Kationen wurden nicht untersucht. D) Das negativ geladene Phospholipid DLPA (1,2-Dilauryl-phosphatidsäure) bildet auf dem positiv geladenen PAH eine Lipiddoppelschicht aus, die Defekte aufweist. E) DNA adsorbiert ebenfalls erst in Anwesenheit von Calciumionen in der Lösung an die DLPA-Schicht. F) Durch die Zugabe von EDTA (Ethylendiamintetraessigsäure) werden die Calciumionen dem DLPA/DNA-Komplex entzogen, wodurch dieser dissoziiert. Demnach ist die calciuminduzierte Bildung dieser Komplexe reversibel.
Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat.
Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen.
Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt.
Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert.
Virtual 3D city models represent and integrate a variety of spatial data and georeferenced data related to urban areas. With the help of improved remote-sensing technology, official 3D cadastral data, open data or geodata crowdsourcing, the quantity and availability of such data are constantly expanding and its quality is ever improving for many major cities and metropolitan regions. There are numerous fields of applications for such data, including city planning and development, environmental analysis and simulation, disaster and risk management, navigation systems, and interactive city maps.
The dissemination and the interactive use of virtual 3D city models represent key technical functionality required by nearly all corresponding systems, services, and applications. The size and complexity of virtual 3D city models, their management, their handling, and especially their visualization represent challenging tasks. For example, mobile applications can hardly handle these models due to their massive data volume and data heterogeneity. Therefore, the efficient usage of all computational resources (e.g., storage, processing power, main memory, and graphics hardware, etc.) is a key requirement for software engineering in this field. Common approaches are based on complex clients that require the 3D model data (e.g., 3D meshes and 2D textures) to be transferred to them and that then render those received 3D models. However, these applications have to implement most stages of the visualization pipeline on client side. Thus, as high-quality 3D rendering processes strongly depend on locally available computer graphics resources, software engineering faces the challenge of building robust cross-platform client implementations.
Web-based provisioning aims at providing a service-oriented software architecture that consists of tailored functional components for building web-based and mobile applications that manage and visualize virtual 3D city models. This thesis presents corresponding concepts and techniques for web-based provisioning of virtual 3D city models. In particular, it introduces services that allow us to efficiently build applications for virtual 3D city models based on a fine-grained service concept. The thesis covers five main areas:
1. A Service-Based Concept for Image-Based Provisioning of
Virtual 3D City Models It creates a frame for a broad range of services related to the rendering and image-based dissemination of virtual 3D city models.
2. 3D Rendering Service for Virtual 3D City Models This service provides efficient, high-quality 3D rendering functionality for virtual 3D city models. In particular, it copes with requirements such as standardized data formats, massive model texturing, detailed 3D geometry, access to associated feature data, and non-assumed frame-to-frame coherence for parallel service requests. In addition, it supports thematic and artistic styling based on an expandable graphics effects library.
3. Layered Map Service for Virtual 3D City Models It generates a map-like representation of virtual 3D city models using an oblique view. It provides high visual quality, fast initial loading times, simple map-based interaction and feature data access. Based on a configurable client framework, mobile and web-based applications for virtual 3D city models can be created easily.
4. Video Service for Virtual 3D City Models It creates and synthesizes videos from virtual 3D city models. Without requiring client-side 3D rendering capabilities, users can create camera paths by a map-based user interface, configure scene contents, styling, image overlays, text overlays, and their transitions. The service significantly reduces the manual effort typically required to produce such videos. The videos can automatically be updated when the underlying data changes.
5. Service-Based Camera Interaction It supports task-based 3D camera interactions, which can be integrated seamlessly into service-based visualization applications. It is demonstrated how to build such web-based interactive applications for virtual 3D city models using this camera service.
These contributions provide a framework for design, implementation, and deployment of future web-based applications, systems, and services for virtual 3D city models. The approach shows how to decompose the complex, monolithic functionality of current 3D geovisualization systems into independently designed, implemented, and operated service- oriented units. In that sense, this thesis also contributes to microservice architectures for 3D geovisualization systems—a key challenge of today’s IT systems engineering to build scalable IT solutions.
In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy.
Hybrid nanomaterials offer the combination of individual properties of different types of nanoparticles. Some strategies for the development of new nanostructures in larger scale rely on the self-assembly of nanoparticles as a bottom-up approach. The use of templates provides ordered assemblies in defined patterns. In a typical soft-template, nanoparticles and other surface-active agents are incorporated into non-miscible liquids. The resulting self-organized dispersions will mediate nanoparticle interactions to control the subsequent self-assembly. Especially interactions between nanoparticles of very different dispersibility and functionality can be directed at a liquid-liquid interface.
In this project, water-in-oil microemulsions were formulated from quasi-ternary mixtures with Aerosol-OT as surfactant. Oleyl-capped superparamagnetic iron oxide and/or silver nanoparticles were incorporated in the continuous organic phase, while polyethyleneimine-stabilized gold nanoparticles were confined in the dispersed water droplets. Each type of nanoparticle can modulate the surfactant film and the inter-droplet interactions in diverse ways, and their combination causes synergistic effects. Interfacial assemblies of nanoparticles resulted after phase-separation. On one hand, from a biphasic Winsor type II system at low surfactant concentration, drop-casting of the upper phase afforded thin films of ordered nanoparticles in filament-like networks. Detailed characterization proved that this templated assembly over a surface is based on the controlled clustering of nanoparticles and the elongation of the microemulsion droplets. This process offers versatility to use different nanoparticle compositions by keeping the surface functionalization, in different solvents and over different surfaces. On the other hand, a magnetic heterocoagulate was formed at higher surfactant concentration, whose phase-transfer from oleic acid to water was possible with another auxiliary surfactant in ethanol-water mixture. When the original components were initially mixed under heating, defined oil-in-water, magnetic-responsive nanostructures were obtained, consisting on water-dispersible nanoparticle domains embedded by a matrix-shell of oil-dispersible nanoparticles.
Herein, two different approaches were demonstrated to form diverse hybrid nanostructures from reverse microemulsions as self-organized dispersions of the same components. This shows that microemulsions are versatile soft-templates not only for the synthesis of nanoparticles, but also for their self-assembly, which suggest new approaches towards the production of new sophisticated nanomaterials in larger scale.
The economic impact analysis contained in this book shows how irrigation farming is particularly susceptible when applying certain water management policies in the Australian Murray-Darling Basin, one of the world largest river basins and Australia’s most fertile region. By comparing different pricing and non-pricing water management policies with the help of the Water Integrated Market Model, it is found that the impact of water demand reducing policies is most severe on crops that need to be intensively irrigated and are at the same time less water productive. A combination of increasingly frequent and severe droughts and the application of policies that decrease agricultural water demand, in the same region, will create a situation in which the highly water dependent crops rice and cotton cannot be cultivated at all.
The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns.
The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions.
The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches.
In the past decades, development cooperation (DC) led by conventional bi- and multilateral donors has been joined by a large number of small, private or public-private donors. This pluralism of actors raises questions as to whether or not these new donors are able to implement projects more or less effectively than their conventional counterparts. In contrast to their predecessors, the new donors have committed themselves to be more pragmatic, innovative and flexible in their development cooperation measures. However, they are also criticized for weakening the function of local civil society and have the reputation of being an intransparent and often controversial alternative to public services. With additional financial resources and their new approach to development, the new donors have been described in the literature as playing a controversial role in transforming development cooperation. This dissertation compares the effectiveness of initiatives by new and conventional donors with regard to the provision of public goods and services to the poor in the water and sanitation sector in India.
India is an emerging country but it is experiencing high poverty rates and poor water supply in predominantly rural areas. It lends itself for analyzing this research theme as it is currently being confronted by a large number of actors and approaches that aim to find solutions for these challenges .
In the theoretical framework of this dissertation, four governance configurations are derived from the interaction of varying actor types with regard to hierarchical and non-hierarchical steering of their interactions. These four governance configurations differ in decision-making responsibilities, accountability and delegation of tasks or direction of information flow. The assumption on actor relationships and steering is supplemented by possible alternative explanations in the empirical investigation, such as resource availability, the inheritance of structures and institutions from previous projects in a project context, gaining acceptance through beneficiaries (local legitimacy) as a door opener, and asymmetries of power in the project context.
Case study evidence from seven projects reveals that the actors' relationship is important for successful project delivery. Additionally, the results show that there is a systematic difference between conventional and new donors. Projects led by conventional donors were consistently more successful, due to an actor relationship that placed the responsibility in the hands of the recipient actors and benefited from the trust and reputation of a long-term cooperation. The trust and reputation of conventional donors always went along with a back-up from federal level and trickled down as reputation also at local level implementation. Furthermore, charismatic leaders, as well as the acquired structures and institutions of predecessor projects, also proved to be a positive influencing factor for successful project implementation.
Despite the mixed results of the seven case studies, central recommendations for action can be derived for the various actors involved in development cooperation. For example, new donors could fulfill a supplementary function with conventional donors by developing innovative project approaches through pilot studies and then implementing them as a supplement to the projects of conventional donors on the ground. In return, conventional donors would have to make room the new donors by integrating their approaches into already programs in order to promote donor harmonization. It is also important to identify and occupy niches for activities and to promote harmonization among donors on state and federal sides.
The empirical results demonstrate the need for a harmonization strategy of different donor types in order to prevent duplication, over-experimentation and the failure of development programs. A transformation to successful and sustainable development cooperation can only be achieved through more coordination processes and national self-responsibility.
Water at α-alumina surfaces
(2018)
The (0001) surface of α-Al₂O₃ is the most stable surface cut under UHV conditions and was studied by many groups both theoretically and experimentally. Reaction barriers computed with GGA functionals are known to be underestimated. Based on an example reaction at the (0001) surface, this work seeks to improve this rate by applying a hybrid functional method and perturbation theory (LMP2) with an atomic orbital basis, rather than a plane wave basis. In addition to activation barriers, we calculate the stability and vibrational frequencies of water on the surface. Adsorption energies were compared to PW calculations and confirmed PBE+D2/PW stability results. Especially the vibrational frequencies with the B3LYP hybrid functional that have been calculated for the (0001) surface are in good agreement with experimental findings. Concerning the barriers and the reaction rate constant, the expectations are fully met. It could be shown that recalculation of the transition state leads to an increased barrier, and a decreased rate constant when hybrid functionals or LMP2 are applied.
Furthermore, the molecular beam scattering of water on (0001) surface was studied. In a previous work by Hass the dissociation was studied by AIMD of molecularly adsorbed water, referring to an equilibrium situation. The experimental method to obtaining this is pinhole dosing. In contrast to this earlier work, the dissociation process of heavy water that is brought onto the surface from a molecular beam source was modeled in this work by periodic ab initio molecular dynamics simulations. This experimental method results in a non-equilibrium situation. The calculations with different surface and beam models allow us to understand the results of the non-equilibrium situation better. In contrast to a more equilibrium situation with pinhole dosing, this gives an increase in the dissociation probability, which could be explained and also understood mechanistically by those calculations.
In this work good progress was made in understanding the (1120) surface of α-Al₂O₃ in contact with water in the low-coverage regime. This surface cut is the third most stable one under UHV conditions and has not been studied to a great extent yet. After optimization of the clean, defect free surface, the stability of different adsorbed species could be classified. One molecular minimum and several dissociated species could be detected. Starting from these, reaction rates for various surface reactions were evaluated. A dissociation reaction was shown to be very fast because the molecular minimum is relatively unstable, whereas diffusion reactions cover a wider range from fast to slow. In general, the (112‾0) surface appears to be much more reactive against water than the (0001) surface. In addition to reactivity, harmonic vibrational frequencies were determined for comparison with the findings of the experimental “Interfacial Molecular Spectroscopy” group from Fritz-Haber institute in Berlin. Especially the vibrational frequencies of OD species could be assigned to vibrations from experimental SFG spectra with very good agreement. Also, lattice vibrations were studied in close collaboration with the experimental partners. They perform SFG spectra at very low frequencies to get deep into the lattice vibration region. Correspondingly, a bigger slab model with greater expansion perpendicular to the surface was applied, considering more layers in the bulk. Also with the lattice vibrations we could obtain reasonably good agreement in terms of energy differences between the peaks.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten?
(2015)
Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben.
Was ist HipHop?
(2021)
Es handelt sich bei der vorliegenden Dissertation um eine investigative Forschungsarbeit, die sich mit dem dynamisch wandelnden HipHop-Phänomen befasst. Der Autor erläutert hierbei die anhaltende Attraktivität des kulturellen Phänomens HipHop und versucht die Tatsache der stetigen Reproduzierbarkeit des HipHops genauer zu erklären. Daher beginnt er mit einer historischen Diskursanalyse der HipHop-Kultur. Er analysiert hierfür die Formen, die Protagonisten und die Diskurse des HipHops, um diesen besser verstehen zu können. Durch die Herausarbeitung der genuinen Eigenschaft der Mehrfachkodierbarkeit des HipHops werden gängige Erklärungsmuster aus Wissenschaft und Medien relativiert und kritisiert. Der Autor kombiniert in seiner Studie kultur- und erziehungswissenschaftliche Literatur mit diversen aktuellen und historischen Darstellungen und Bildern. Es werden vor allem bildbasierte Selbstinszenierungen von HipHoppern und Selbstzeugnisse aus narrativen Interviews, die er selbst mit verschiedenen HipHoppern in Deutschland geführt hat, ausgewertet. Neben den narrativen Interviews dient vor allem die Bildinterpretation nach Bohnsack als Quelle zur Bildung der These der Mehrfachkodierbarkeit. Hierbei werden zwei Bilder der HipHopper Lady Bitch Ray und Kollegah nach Bohnsack (2014) interpretiert und gezeigt wie HipHop neben der lyrischen und der klanglichen Komponente auch visuell inszeniert und produziert wird. Hieraus wird geschlussfolgert, dass es im HipHop möglich ist konträre Sichtweisen bei gleichzeitiger Anwendung von typischen Kulturpraktiken wie zum Beispiel dem Boasting darzustellen und zu vermitteln. Die stetige Offenheit des HipHops wird durch Praktiken wie dem Sampling oder dem Battle deutlich und der Autor erklärt, dass durch diese Techniken die generative Eigenschaft der Mehrfachkodierbarkeit hergestellt wird. Damit vertritt er eine Art Baukasten-Theorie, die besagt, dass sich prinzipiell jeder aus dem Baukasten HipHop, je nach Vorliebe, Interesse und Affinität, bedienen kann. Durch die Vielfalt an Meinungen zu HipHop, die der Autor durch die Kodierung der geführten narrativen Interviews erhält, wird diese These verdeutlicht und es wird klar, dass es sich bei HipHop um mehr als nur eine Mode handelt. HipHop besitzt die prinzipielle Möglichkeit durch die Offenheit, die er in sich trägt, sich stetig neu zu wandeln und damit an Beliebtheit und Popularität zuzunehmen. Die vorliegende Arbeit erweitert damit die immer größer werdende Forschung in den HipHop-Studies und setzt wichtige Akzente um weiter zu forschen und HipHop besser verständlich zu machen.
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
Der boomende Wirtschaftsriese China erfährt weltweit immer mehr Aufmerksamkeit von Politik, Wirtschaft, Wissenschaft und Öffentlichkeit. Gleichzeitig werden aber auch innere soziale Probleme und die großen regionalen Disparitäten des Landes angesprochen. Auch Berichte über die Situation der Wanderarbeiter in den Großstädten des Landes häufen sich. Obwohl sich die Wissenschaft ebenfalls dieses Themas angenommen hat, mangelt es noch an Untersuchungen darüber, insbesondere an solchen, die eingehend und systematisch mit empirischen Erhebungen „vor Ort“ dieses Phänomen studieren. In diese Lücke stößt die Dissertation von Ling He. In ihrem Mittelpunkt steht das Alltagsleben der Arbeitsmigranten in Peking. Dabei werden behandelt: die Migrationsmotive, die strukturellen und individuellen Rahmenbedingungen für die Arbeitsmigranten und ihre Familien, die Arbeits- und Lebensbedingungen, die Bildung finanzieller Ressourcen sowie auch die Konstruktion sozialer Netzwerke und die Integration der Migranten in Peking. Außerdem geht die Dissertation ein auf die Vorteile, die für die etwa 17 Millionen Einwohner zählende Stadt durch die Beschäftigung der etwa 3 Millionen Arbeitsmigranten geschaffen werden, und sie weist auf die sozialen und ökonomischen Probleme hin, die im Zusammenhang mit der Arbeitsmigration gelöst werden müssten.
In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein.
Die kumulative Dissertation zur Projektdidaktik trägt den Titel „Von der Konzeption zur Praxis: Zur Entwicklung der Projektdidaktik am Oberstufen-Kolleg Bielefeld und ihre Impulsgebung und Modellbildung für das deutsche Regelschulwesen“. Die Dissertation versteht sich als beispielgebende Umsetzung und Implementierung der Projektdidaktik für das Regelschulsystem. Auf der Basis von 22 bereits erschienenen Publikationen und einer Monographie werden mit fünf methodischen Zugriffen (bildungshistorisch, dichte Beschreibung, Aktionsforschung, empirische Untersuchung an Regelschulen und Implementierungsforschung, s. Kapitel 1) in sieben Kapiteln (2- 8) des systematischen ersten Teils die Entwicklung der Unterrichtsform Projektunterricht in der BRD, Projektbegriff und Weiterentwicklung des Konzepts, Methodik, Bewertung sowie Organisation des Projektunterrichts am Oberstufen-Kolleg, der Versuchsschule des Landes NRW, in Auseinandersetzung mit der allgemeinen Projektdidaktik dargestellt sowie Formen und Verfahren der erprobten Implementierung in das Regelschulsystem präsentiert.
Ein Schlusskapitel (9) fasst die Ergebnisse zusammen. Im umfangreichen Anhang finden sich verschiedene Publikationen zu Aspekten der Projektdidaktik, auf die der systematische Teil jeweils Bezug nimmt.
Die bildungshistorische Analyse (Kapitel 2) untersucht das Verhältnis von pädagogischer Theorie und schulischer Praxis, die weder in Literatur und noch in Praxis genügend verbunden sind. Nach der Rezeption der gut erforschten Konzeptgeschichte pädagogischer Theorie in Anlehnung an Dewey und Kilpatrick wird durch eine erste Analyse der „Praxisgeschichte“ des Projektunterrichts auf ein Forschungsdesiderat hingewiesen, dies auch um die Projektpraxis am Oberstufen-Kolleg in Beziehung zu der in den Regelschulen setzen zu können. Dabei wurden seit 1975 sechs Entwicklungslinien herausgearbeitet: Start, Krise und ihre Überwindung durch Öffnung und Vernetzung (1975-1990), didaktisch-methodische Differenzierung und Notwendigkeit von Professionalisierung (ab 1990) sowie Schulentwicklung und Institutionalisierung (seit Ende der 1990er Jahre).
Projektunterricht besteht am Oberstufen-Kolleg seit der Gründung 1974 als fest eingerichtete Unterrichtsform (seit 2002 zweimal jährlich 2 Wochen) mit dem Ziel, für das Regelschulsystem die Projektdidaktik zu erproben und weiterzuentwickeln. Als wichtige praxisorientierte Ziele wurden ein praxistauglicher Begriff, Bildungswert und Kompetenzen im Unterschied zum Lehrgang herausgearbeitet (z.B. handlungs- und anwendungsorientierte Kompetenzen) und das Verhältnis zum Fachunterricht bestimmt (Kapitel 3). Letzteres wurde am Beispiel des Fachs Geschichte entwickelt und exemplarisch in Formen der Verzahnung dargestellt (Kapitel 6).
Auch für die methodische Dimension galt, die allgemeine Projektdidaktik weiterzuentwickeln durch ihre Abgrenzung zu anderen Methoden der Öffnung von Schule und Unterricht (Kapitel 4). Dabei wurde als zentrales methodisches Prinzip die Handlungsorientierung bestimmt sowie sieben Phasen und jeweilige Handlungsschritte festgelegt. Besonders Planung und Rollenwechsel bedürfen dabei besonderer Beachtung, um Selbsttätigkeit der ProjektteilnehmerInnen zu erreichen. Verschiedene methodische „Etüden“ ( z.B. Gruppenarbeit, recherchieren, sich öffentlich verhalten), handlungsorientierte Vorformen und projektorientiertes Arbeiten sollten die Vollform Projektunterricht vorbereiten helfen.
Die Bewertung von Projekten (Kapitel 5) stellt andere Anforderungen als der Lehrgang, weil sie unterschiedliche Bewertungsebenen (z.B. Prozessbedeutung, Produktbeurteilung, Gruppenbewertung) umfasst. Dazu sind am Oberstufen-Kolleg andere Bewertungsformen als die Ziffernnote entwickelt worden: z.B. ein „Reflexionsbericht“ als individuelle Rückmeldung von SchülerInnen und LehrerInnen und ein „Zertifikat“ für besondere Leistungen im Projekt.
Zentral für die Entwicklung von Projektunterricht ist jedoch die Organisationsfrage (Kapitel 7). Dazu bedarf es einer Organisationsgruppe Projekt, die die Unterrichtsform didaktisch betreut und in einem Hearing die angemeldeten Projekte berät. Das Oberstufen-Kolleg hat damit eine entwickelte „Projektkultur“ organisatorisch umgesetzt. Für eine empirische Untersuchung an sechs Regelschulen in Ostwestfalen ist dann eine idealtypische Merkmalsliste von schulischer „Projektkultur“ als Untersuchungsinstrument entstanden, das zugleich als Leitlinie für Schulentwicklung im Bereich Projektlernen in den Regelschulen dienen kann. Zu dieser Implementierung (Kapitel 8) wurden Konzepte und Erfahrungen vom Oberstufen-Kolleg für schulinterne und schulexterne Fortbildungsformen sowie eine exemplarische Fortbildungseinheit entwickelt. So konnten in zahlreichen Lehrerfortbildungen durch die Versuchsschule Impulse für das Regelschulsystem gegeben werden.
Im Rahmen einer explorativen Entwicklung wurde in der vorliegenden Studie ein Konzept zur Wissenschaftskommunikation für ein Graduiertenkolleg, in dem an photochemischen Prozessen geforscht wird, erstellt und anschließend evaluiert. Der Grund dafür ist die immer stärker wachsende Forderung nach Wissenschaftskommunikation seitens der Politik. Es wird darüber hinaus gefordert, dass die Kommunikation der eigenen Forschung in Zukunft integrativer Bestandteil des wissenschaftlichen Arbeitens wird. Um junge Wissenschaftler bereits frühzeitig auf diese Aufgabe vorzubereiten, wird Wissenschaftskommunikation auch in Forschungsverbünden realisiert.
Aus diesem Grund wurde in einer Vorstudie untersucht, welche Anforderungen an ein Konzept zur Wissenschaftskommunikation im Rahmen eines Forschungsverbundes gestellt werden, indem die Einstellung der Doktoranden zur Wissenschaftskommunikation sowie ihre Kommunikationsfähigkeiten anhand eines geschlossenen Fragebogens evaluiert wurden. Darüber hinaus wurden aus den Daten Wissenschaftskommunikationstypen abgeleitet. Auf Grundlage der Ergebnisse wurden unterschiedliche Wissenschaftskommunikationsmaßnahmen entwickelt, die sich in der Konzeption, den Rezipienten, sowie der Form der Kommunikation und den Inhalten unterscheiden.
Im Rahmen dieser Entwicklung wurde eine Lerneinheit mit Bezug auf die Inhalte des Graduiertenkollegs, bestehend aus einem Lehr-Lern-Experiment und den dazugehörigen Begleitmaterialien, konzipiert. Anschließend wurde die Lerneinheit in eine der Wissenschaftskommunikationsmaßnahmen integriert. Je nach Anforderung an die Doktoranden, wurden die Maßnahmen durch vorbereitende Workshops ergänzt.
Durch einen halboffenen Pre-Post-Fragebogen wurde der Einfluss der Wissenschaftskommunikationsmaßnahmen und der dazugehörigen Workshops auf die Selbstwirksamkeit der Doktoranden evaluiert, um Rückschlüsse darauf zu ziehen, wie sich die Wahrnehmung der eigenen Kommunikationsfähigkeiten durch die Interventionen verändert. Die Ergebnisse deuten darauf hin, dass die einzelnen Wissenschaftskommunikationsmaßnahmen die verschiedenen Typen in unterschiedlicher Weise beeinflussen. Es ist anzunehmen, dass es abhängig von der eigenen Einschätzung der Kommunikationsfähigkeit unterschiedliche Bedürfnisse der Förderung gibt, die durch dedizierte Wissenschaftskommunikationsmaßnahmen berücksichtigt werden können.
Auf dieser Grundlage werden erste Ansätze für eine allgemeingültige Strategie vorgeschlagen, die die individuellen Fähigkeiten zur Wissenschaftskommunikation in einem naturwissenschaftlichen Forschungsverbund fördert.
Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte.
Ziel dieser Arbeit war die Entwicklung von Methoden zur Synthese von auf Phenol basierenden Naturstoffen. Insbesondere wurde bei der Methodenentwicklung die Nachhaltigkeit in den Vordergrund gerückt. Dies bedeutet, dass durch die Zusammenfassung mehrerer Syntheseschritte zu einem (Tandem-Reaktion) beispielsweise unnötige Reaktionsschritte vermieden werden sollten. Ferner sollten im Sinne der Nachhaltigkeit möglichst ungiftige Reagenzien und Lösungmittel verwendet werden, ebenso wie mehrfach wiederverwertbare Katalysatoren zum Einsatz kommen. Im Rahmen dieser Arbeit wurden Methoden zum Aufbau von Biphenolen mittels Pd/C-katalysierten Suzuki-Miyaura-Kupplungen entwickelt. Diese Methoden sind insofern äußerst effizient, da der ansonsten gebräuchliche Syntheseweg über drei Reaktionsschritte somit auf lediglich eine Reaktionsstufe reduziert wurde. Weiterhin wurden die Reaktionsbedingungen so gestaltet, dass einfaches Wasser als vollkommen ungiftiges Lösungsmittel verwendet werden konnte. Des Weiteren wurde für diese Reaktionen ein Katalysator gewählt, der einfach durch Filtration vom Reaktionsgemisch abgetrennt und für weitere Reaktionen mehrfach wiederverwendet werden konnte. Darüber hinaus konnte durch die Synthese von mehr als 100 Verbindungen die breite Anwendbarkeit der Methoden aufgezeigt werden. Mit den entwickelten Methoden konnten 14 Naturstoffe - z. T. erstmals - synthetisiert werden. Derartige Stoffe werden u. a. von den ökonomisch bedeutenden Kernobstgewächsen (Äpfeln, Birnen) als Abwehrmittel gegenüber Schädlingen erzeugt. Folglich konnte mit Hilfe dieser Methoden ein Syntheseweg für potentielle Pflanzenschutzmittel entwickelt werden. Im zweiten Teil dieser Arbeit wurde ein Zugang zu den sich ebenfalls vom Phenol ableitenden Chromanonen, Chromonen und Cumarinen untersucht. Bei diesen Untersuchungen konnte durch die Entwicklung zweier neuer Tandem-Reaktionen ein nachhaltiger und stufenökonomischer Syntheseweg zur Darstellung substituierter Benzo(dihydro)pyrone aufgezeigt werden. Durch die erstmalige Kombination der Claisen-Umlagerung mit einer Oxa-Michael-Addition bzw. konjugierten-Addition wurden zwei vollkommen atomökonomische Reaktionen miteinander verknüpft und somit eine überaus effiente Synthese von allyl- bzw. prenylsubstituierten Chromanonen und Chromonen ermöglicht. Ferner konnten durch die Anwendung einer Claisen-Umlagerung-Wittig-Laktonisierungs-Reaktion allyl- bzw. prenylsubstituierte Cumarine erhalten werden. Herausragendes Merkmal dieser Methoden war, dass in nur einem Schritt der jeweilige Naturstoffgrundkörper aufgebaut und eine lipophile Seitenkette generiert werden konnte. Die Entwicklung dieser Methoden ist von hohem pharmazeutischem Stellenwert, da auf diesen Wegen Verbindungen synthetisiert werden können, die zum einem über das notwendige pharmakologische Grundgerüst verfügen und zum anderen über eine Seitenkette, welche die Aufnahmefähigkeit und damit die Wirksamkeit im Organismus beträchtlich erhöht. Insgesamt konnten mittels der entwickelten Methoden 15 Chromanon-, Chromon- und Cumarin-Naturstoffe z. T. erstmals synthetisiert werden.
Vom Monomer zum Glykopolymer
(2019)
Glykopolymere sind synthetische und natürlich vorkommende Polymere, die eine Glykaneinheit in der Seitenkette des Polymers tragen. Glykane sind durch die Glykan-Protein-Wechselwirkung verantwortlich für viele biologische Prozesse. Die Beteiligung der Glykanen in diesen biologischen Prozessen ermöglicht das Imitieren und Analysieren der Wechselwirkungen durch geeignete Modellverbindungen, z.B. der Glykopolymere. Dieses System der Glykan-Protein-Wechselwirkung soll durch die Glykopolymere untersucht und studiert werden, um die spezifische und selektive Bindung der Proteine an die Glykopolymere nachzuweisen. Die Proteine, die in der Lage sind, Kohlenhydratstrukturen selektiv zu binden, werden Lektine genannt.
In dieser Dissertationsarbeit wurden verschiedene Glykopolymere synthetisiert. Dabei sollte auf einen effizienten und kostengünstigen Syntheseweg geachtet werden.
Verschiedene Glykopolymere wurden durch funktionalisierte Monomere mit verschiedenen Zuckern, wie z.B. Mannose, Laktose, Galaktose oder N-Acetyl-Glukosamin als funktionelle Gruppe, hergestellt. Aus diesen funktionalisierten Glykomonomeren wurden über ATRP und RAFT-Polymerisation Glykopolymere synthetisiert.
Die erhaltenen Glykopolymere wurden in Diblockcopolymeren als hydrophiler Block angewendet und die Selbstassemblierung in wässriger Lösung untersucht. Die Polymere formten in wässriger Lösung Mizellen, bei denen der Zuckerblock an der Oberfläche der Mizellen sitzt. Die Mizellen wurden mit einem hydrophoben Fluoreszenzfarbstoff beladen, wodurch die CMC der Mizellenbildung bestimmt werden konnte.
Außerdem wurden die Glykopolymere als Oberflächenbeschichtung über „Grafting from“ mit SI-ATRP oder über „Grafting to“ auf verschiedene Oberflächen gebunden. Durch die glykopolymerbschichteten Oberflächen konnte die Glykan Protein Wechselwirkung über spektroskopische Messmethoden, wie SPR- und Mikroring Resonatoren untersucht werden. Hierbei wurde die spezifische und selektive Bindung der Lektine an die Glykopolymere nachgewiesen und die Bindungsstärke untersucht.
Die synthetisierten Glykopolymere könnten durch Austausch der Glykaneinheit für andere Lektine adressierbar werden und damit ein weites Feld an anderen Proteinen erschließen. Die bioverträglichen Glykopolymere wären alternativen für den Einsatz in biologischen Prozessen als Transporter von Medikamenten oder Farbstoffe in den Körper. Außerdem könnten die funktionalisierten Oberflächen in der Diagnostik zum Erkennen von Lektinen eingesetzt werden. Die Glykane, die keine selektive und spezifische Bindung zu Proteinen eingehen, könnten als antiadsorptive Oberflächenbeschichtung z.B. in der Zellbiologie eingesetzt werden.
Nahrungsinhaltsstoffe sind im Organismus an Steuerungsprozessen und Stoffwechselvorgängen beteiligt, wobei die Mechanismen ihrer Wirkung noch nicht völlig aufgeklärt sind. Wie Vitamin E zeigen auch sekundäre Pflanzeninhaltsstoffe in Zellsystemen sowie in vivo eine Reihe biologischer Wirkungen, deren Erklärung jedoch häufig auf ihre antioxidative Eigenschaft reduziert wird. Ziel der Dissertation war es, den Einfluss von Vitamin E und anderen Pflanzeninhaltsstoffen (in Form von Pflanzenextrakten oder isolierten sekundären Pflanzeninhaltsstoffen, z.B. Polyphenole), die bisher alle hauptsächlich als Antioxidanz klassifiziert wurden, auf die transkriptionelle Regulation von Phase I- und Phase II-Enzymen zu untersuchen. Dazu wurde die Aktivierung des PXR (pregnane X receptor) und des Nrf2 (NF-E2-related factor-2) als zentrale Transkriptionsfaktoren der Phase I- bzw. Phase II-Enzyme getestet. Der Einfluss von verschiedenen Vitamin E-Formen und antioxidativen Pflanzeninhaltsstoffen in Form von Reinsubstanzen (Curcumin, EGCG, Medox, Quercetin, Resveratrol und Sulforaphan) oder Pflanzenextrakten (aus Blaubeeren, Gewürznelken, Himbeeren, Nelkenpfeffer, Thymian oder Walnüssen) auf die Aktivierung von PXR und Nrf2 sowie des Promotors eines jeweiligen Zielgens (CYP3A4 bzw. GI-GPx) wurde in vitro mit Reportergenplasmiden untersucht. Es zeigte sich, dass sowohl Vitamin E-Formen als auch verschiedene sekundäre Pflanzeninhaltsstoffe PXR und/oder Nrf2 sowie die Promotoren der jeweiligen Zielgene CYP3A4 bzw. GI-GPx aktivieren. In einem Tierexperiment konnte diese genregulatorische Wirkung von Vitamin E auf die in vivo-Situation übertragen werden. In Lebern von Mäusen, deren Futter unterschiedliche Mengen von Vitamin E enthielt (Mangel-, Normal- und Überflussdiät), wurde eine direkte Korrelation zwischen der alpha-Tocopherol-Konzentration und der Cyp3a11 mRNA-Expression nachgewiesen (Cyp3a11 ist das murine Homolog zum humanen CYP3A4). Entgegen der in vitro-Situation hatte gamma-Tocotrienol in vivo einen nur kaum nachweisbaren Effekt auf die Expression der Cyp3a11 mRNA, induzierte aber die Expression der alpha-TTP mRNA. Es konnte gezeigt werden, dass Vitamin E und sekundäre Pflanzeninhaltsstoffe Phase I- und Phase II-Enzyme transkriptionell regulieren können. Die Wirkungen des Vitamin E können sich allerdings nur entfalten, wenn die Vitamin E-Formen ausreichend vom Körper aufgenommen werden. Gegenstand der Dissertation waren daher auch Untersuchungen zur Bioverfügbarkeit (zelluläre Akkumulation und Metabolismus) verschiedener Vitamin E-Formen. Es konnte gezeigt werden, dass Unterschiede in der chemischen Struktur der Vitamin E-Formen deren zelluläre Akkumulation und Metabolisierung beeinflussen. Unter Berücksichtigung der Ergebnisse der Dissertation lassen sich protektive Wirkungen von antioxidativen Nahrungsinhaltsstoffen auch unabhängig von ihren antioxidativen Eigenschaften über die Induktion zelleigener Schutzsysteme, einschließlich der Phase I- und Phase II-Enzyme, erklären. Die Induktion der zelleigenen Abwehr lässt sich auch als adaptive Antwort (sog. "adaptive response") des Organismus gegenüber zellschädigenden Ereignissen betrachten.
Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring.
Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging.
A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR.
First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases.
Vitamin E wird immer noch als das wichtigste lipophile Antioxidanz in biologischen Membranen betrachtet. In den letzten Jahren hat sich jedoch der Schwerpunkt der Vitamin E-Forschung hin zu den nicht-antioxidativen Funktionen verlagert. Besonderes Interesse gilt dabei dem α-Tocopherol, der häufigsten Vitamin E-Form im Gewebe von Säugetieren, und seiner Rolle bei der Regulation der Genexpression. Das Ziel dieser Dissertation war die Untersuchung der genregulatorischen Funktionen von α-Tocoperol und die Identifizierung α-Tocopherol-sensitiver Gene in vivo. Zu diesem Zweck wurden Mäuse mit verschiedenen Mengen α-Tocopherol gefüttert. Die Analyse der hepatischen Genexpression mit Hilfe von DNA-Microarrays identifizierte 387 α-Tocopherol-sensitive Gene. Funktionelle Clusteranalysen der differentiell exprimierten Gene zeigten einen Einfluss von α-Tocooherol auf zelluläre Transportprozesse. Besonders solche Gene, die an vesikulären Transportvorgängen beteiligt sind, wurden größtenteils durch α-Tocopherol hochreguliert. Für Syntaxin 1C, Vesicle-associated membrane protein 1, N-ethylmaleimide-sensitive factor and Syntaxin binding protein 1 konnte eine erhöhte Expression mittels real time PCR bestätigt werden. Ein funktioneller Einfluss von α-Tocopherol auf vesikuläre Transportprozesse konnte mit Hilfe des in vitro β-Hexosaminidase Assays in der sekretorischen Mastzelllinie RBL-2H3 gezeigt werden. Die Inkubation der Zellen mit α-Tocopherol resultierte in einer konzentrationsabhängigen Erhöhung der PMA/Ionomycin-stimulierten Sekretion der β-Hexosaminidase. Eine erhöhte Expression ausgewählter Gene, die an der Degranulation beteiligt sind, konnte nicht beobachtet werden. Damit schien ein direkter genregulatorischer Effekt von α-Tocopherol eher unwahrscheinlich. Da eine erhöhte Sekretion auch mit β-Tocopherol aber nicht mit Trolox, einem hydrophilen Vitamin E-Analogon, gefunden wurde, wurde vermutet, dass α-Tocopherol die Degranulation möglicherweise durch seine membranständige Lokalisation beeinflussen könnte. Die Inkubation der Zellen mit α-Tocopherol resultierte in einer veränderten Verteilung des Gangliosids GM1, einem Lipid raft Marker. Es wird angenommen, dass diese Membranmikrodomänen als Plattformen für Signaltransduktionsvorgänge fungieren. Ein möglicher Einfluss von Vitamin E auf die Rekrutierung/Translokation von Signalproteinen in Membranmikrodomänen könnte die beobachteten Effekte erklären. Eine Rolle von α-Tocopherol im vesikulären Transport könnte nicht nur seine eigene Absorption und seinen Transport beeinflussen, sondern auch eine Erklärung für die bei schwerer Vitamin E-Defizienz auftretenden neuronalen Dysfunktionen bieten. Im zweiten Teil der Arbeit wurde die α-Tocopheroltransferprotein (Ttpa) Knockout-Maus als genetisches Modell für Vitamin E-Defizienz verwendet, um den Effekt von Ttpa auf die Genexpression und die Gewebeverteilung von α-Tocopherol zu analysieren. Ttpa ist ein cytosolisches Protein, das für die selektive Retention von α-Tocopherol in der Leber verantwortlich ist. Die Ttpa-Defizienz resultierte in sehr geringen α-Tocopherol-Konzentrationen im Plasma und den extrahepatischen Geweben. Die Analyse der α-Tocopherol-Gehalte im Gehirn wies auf eine Rolle von Ttpa bei der α-Tocopherol-Aufnahme ins Gehirn hin.
Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions
(2005)
For more than 80 years vitamin E has been in the focus of scientific research. Most of the progress concerning non-antioxidant functions, nevertheless, has only arisen from publications during the last decade. Most recently, the metabolic pathway of vitamin E has been almost completely elucidated. Vitamin E is metabolized by truncation of its side chain. The initial step of an omega-hydroxylation is carried out by cytochromes P450 (CYPs). This was evidenced by the inhibition of the metabolism of alpha-tocopherol by ketoconozole, an inhibitor of CYP3A expression, whereas rifampicin, an inducer of CYP3A expression increased the metabolism of alpha-tocopherol. Although the degradation pathway is identical for all tocopherols and tocotrienols, there is a marked difference in the amount of the release of metabolites from the individual vitamin E forms in cell culture as well as in experimental animals and in humans. Recent findings not only proposed an CYP3A4-mediated degradation of vitamin E but also suggested an induction of the metabolizing enzymes by vitamin E itself. In order to investigate how vitamin E is able to influence the expression of metabolizing enzymes like CYP3A4, a pregnane X receptor (PXR)-based reporter gene assay was chosen. PXR is a nuclear receptor which regulates the transcription of genes, e.g., CYP3A4, by binding to specific DNA response elements. And indeed, as shown here, vitamin E is able to influence the expression of CYP3A via PXR in an in vitro reporter gene assay. Tocotrienols showed the highest activity followed by delta- and alpha-tocopherol. An up-regulation of Cyp3a11 mRNA, the murine homolog of the human CYP3A4, could also be confirmed in an animal experiment. The PXR-mediated change in gene expression displayed the first evidence of a direct transcriptional activity of vitamin E. PXR regulates the expression of genes involved in xenobiotic detoxification, including oxidation, conjugation, and transport. CYP3A, e.g., is involved in the oxidative metabolism of numerous currently used drugs. This opens a discussion of possible side effects of vitamin E, but the extent to which supranutritional doses of vitamin E modulate these pathways in humans has yet to be determined. Additionally, as there is arising evidence that vitamin E's essentiality is more likely to be based on gene regulation than on antioxidant functions, it appeared necessary to further investigate the ability of vitamin E to influence gene expression. Mice were divided in three groups with diets (i) deficient in alpha-tocopherol, (ii) adequate in alpha-tocopherol supply and (iii) with a supranutritional dosage of alpha-tocopherol. After three months, half of each group was supplemented via a gastric tube with a supranutritional dosage of gamma-tocotrienol per day for 7 days. Livers were analyzed for vitamin E content and liver RNA was prepared for hybridization using cDNA array and oligonucleotide array technology. A significant change in gene expression was observed by alpha-tocopherol but not by gamma-tocotrienol and only using the oligonucleotide array but not using the cDNA array. The latter effect is most probably due to the limited number of genes represented on a cDNA array, the lacking gamma-tocotrienol effect is obviously caused by a rapid degradation, which might prevent bioefficacy of gamma-tocotrienol. Alpha-tocopherol changed the expression of various genes. The most striking observation was an up-regulation of genes, which code for proteins involved in synaptic transmitter release and calcium signal transduction. Synapsin, synaptotagmin, synaptophysin, synaptobrevin, RAB3A, complexin 1, Snap25, ionotropic glutamate receptors (alpha 2 and zeta 1) were shown to be up-regulated in the supranutritional group compared to the deficient group. The up-regulation of synaptic genes shown in this work are not only supported by the strong concentration of genes which all are involved in the process of vesicular transport of neurotransmitters, but were also confirmed by a recent publication. However, a confirmation by real time PCR in neuronal tissue like brain is now required to explain the effect of vitamin E on neurological functionality. The change in expression of genes coding for synaptic proteins by vitamin E is of principal interest thus far, since the only human disease directly originating from an inadequate vitamin E status is ataxia with isolated vitamin E deficiency. Therefore, with the results of this work, an explanation for the observed neurological symptoms associated with vitamin E deficiency can be presented for the first time.
This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German.
Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan.
Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did.
1 a Das ist der Koch, der die Braut verfolgt.
This is the.NOM cook who.NOM the.ACC bride follows
This is the cook who is following the bride.
b Das ist der Koch, den die Braut verfolgt.
This is the.NOM cook whom.ACC the.NOM bride follows
This is the cook whom the bride is following.
The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review).
The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan?
The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively.
L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting.
Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning.
These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension.
Software maintenance encompasses any changes made to a software system after its initial deployment and is thereby one of the key phases in the typical software-engineering lifecycle. In software maintenance, we primarily need to understand structural and behavioral aspects, which are difficult to obtain, e.g., by code reading. Software analysis is therefore a vital tool for maintaining these systems: It provides - the preferably automated - means to extract and evaluate information from their artifacts such as software structure, runtime behavior, and related processes. However, such analysis typically results in massive raw data, so that even experienced engineers face difficulties directly examining, assessing, and understanding these data. Among other things, they require tools with which to explore the data if no clear question can be formulated beforehand. For this, software analysis and visualization provide its users with powerful interactive means. These enable the automation of tasks and, particularly, the acquisition of valuable and actionable insights into the raw data. For instance, one means for exploring runtime behavior is trace visualization. This thesis aims at extending and improving the tool set for visual software analysis by concentrating on several open challenges in the fields of dynamic and static analysis of software systems. This work develops a series of concepts and tools for the exploratory visualization of the respective data to support users in finding and retrieving information on the system artifacts concerned. This is a difficult task, due to the lack of appropriate visualization metaphors; in particular, the visualization of complex runtime behavior poses various questions and challenges of both a technical and conceptual nature. This work focuses on a set of visualization techniques for visually representing control-flow related aspects of software traces from shared-memory software systems: A trace-visualization concept based on icicle plots aids in understanding both single-threaded as well as multi-threaded runtime behavior on the function level. The concept’s extensibility further allows the visualization and analysis of specific aspects of multi-threading such as synchronization, the correlation of such traces with data from static software analysis, and a comparison between traces. Moreover, complementary techniques for simultaneously analyzing system structures and the evolution of related attributes are proposed. These aim at facilitating long-term planning of software architecture and supporting management decisions in software projects by extensions to the circular-bundle-view technique: An extension to 3-dimensional space allows for the use of additional variables simultaneously; interaction techniques allow for the modification of structures in a visual manner. The concepts and techniques presented here are generic and, as such, can be applied beyond software analysis for the visualization of similarly structured data. The techniques' practicability is demonstrated by several qualitative studies using subject data from industry-scale software systems. The studies provide initial evidence that the techniques' application yields useful insights into the subject data and its interrelationships in several scenarios.
Die visuelle Kommunikation ist eine effiziente Methode, um dynamische Phänomene zu beschreiben. Informationsobjekte präzise wahrzunehmen, einen schnellen Zugriff auf strukturierte und relevante Informationen zu ermöglichen, erfordert konsistente und nach dem formalen Minimalprinzip konzipierte Analyse- und Darstellungsmethoden. Dynamische Raumphänomene in Geoinformationssystemen können durch den Mangel an konzeptionellen Optimierungsanpassungen aufgrund ihrer statischen Systemstruktur nur bedingt die Informationen von Raum und Zeit modellieren. Die Forschung in dieser Arbeit ist daher auf drei interdisziplinäre Ansätze fokussiert. Der erste Ansatz stellt eine echtzeitnahe Datenerfassung dar, die in Geodatenbanken zeitorientiert verwaltet wird. Der zweite Ansatz betrachtet Analyse- und Simulationsmethoden, die das dynamische Verhalten analysieren und prognostizieren. Der dritte Ansatz konzipiert Visualisierungsmethoden, die insbesondere dynamische Prozesse abbilden. Die Symbolisierung der Prozesse passt sich bedarfsweise in Abhängigkeit des Prozessverlaufes und der Interaktion zwischen Datenbanken und Simulationsmodellen den verschiedenen Entwicklungsphasen an. Dynamische Aspekte können so mit Hilfe bewährter Funktionen aus der GI-Science zeitnah mit modularen Werkzeugen entwickelt und visualisiert werden. Die Analyse-, Verschneidungs- und Datenverwaltungsfunktionen sollen hierbei als Nutzungs- und Auswertungspotential alternativ zu Methoden statischer Karten dienen. Bedeutend für die zeitliche Komponente ist das Verknüpfen neuer Technologien, z. B. die Simulation und Animation, basierend auf einer strukturierten Zeitdatenbank in Verbindung mit statistischen Verfahren. Methodisch werden Modellansätze und Visualisierungstechniken entwickelt, die auf den Bereich Verkehr transferiert werden. Verkehrsdynamische Phänomene, die nicht zusammenhängend und umfassend darstellbar sind, werden modular in einer serviceorientierten Architektur separiert, um sie in verschiedenen Ebenen räumlich und zeitlich visuell zu präsentieren. Entwicklungen der Vergangenheit und Prognosen der Zukunft werden über verschiedene Berechnungsmethoden modelliert und visuell analysiert. Die Verknüpfung einer Mikrosimulation (Abbildung einzelner Fahrzeuge) mit einer netzgesteuerten Makrosimulation (Abbildung eines gesamten Straßennetzes) ermöglicht eine maßstabsunabhängige Simulation und Visualisierung des Mobilitätsverhaltens ohne zeitaufwendige Bewertungsmodellberechnungen. Zukünftig wird die visuelle Analyse raum-zeitlicher Veränderungen für planerische Entscheidungen ein effizientes Mittel sein, um Informationen übergreifend verfügbar, klar strukturiert und zweckorientiert zur Verfügung zu stellen. Der Mehrwert durch visuelle Geoanalysen, die modular in einem System integriert sind, ist das flexible Auswerten von Messdaten nach zeitlichen und räumlichen Merkmalen.
Current business organizations want to be more efficient and constantly evolving to find ways to retain talent. It is well established that visionary leadership plays a vital role in organizational success and contributes to a better working environment. This study aims to determine the effect of visionary leadership on employees' perceived job satisfaction. Specifically, it investigates whether the mediators meaningfulness at work and commitment to the leader impact the relationship. I take support from job demand resource theory to explain the overarching model used in this study and broaden-and-build theory to leverage the use of mediators.
To test the hypotheses, evidence was collected in a multi-source, time-lagged design field study of 95 leader-follower dyads. The data was collected in a three-wave study, each survey appearing after one month. Data on employee perception of visionary leadership was collected in T1, data for both mediators were collected in T2, and employee perception of job satisfaction was collected in T3. The findings display that meaningfulness at work and commitment to the leader play positive intervening roles (in the form of a chain) in the indirect influence of visionary leadership on employee perceptions regarding job satisfaction.
This research offers contributions to literature and theory by first broadening the existing knowledge on the effects of visionary leadership on employees. Second, it contributes to the literature on constructs meaningfulness at work, commitment to the leader, and job satisfaction. Third, it sheds light on the mediation mechanism dealing with study variables in line with the proposed model. Fourth, it integrates two theories, job demand resource theory and broaden-and-build theory providing further evidence. Additionally, the study provides practical implications for business leaders and HR practitioners.
Overall, my study discusses the potential of visionary leadership behavior to elevate employee outcomes. The study aligns with previous research and answers several calls for further research on visionary leadership, job satisfaction, and mediation mechanism with meaningfulness at work and commitment to the leader.
Virtualizing physical space
(2021)
The true cost for virtual reality is not the hardware, but the physical space it requires, as a one-to-one mapping of physical space to virtual space allows for the most immersive way of navigating in virtual reality. Such “real-walking” requires physical space to be of the same size and the same shape of the virtual world represented. This generally prevents real-walking applications from running on any space that they were not designed for.
To reduce virtual reality’s demand for physical space, creators of such applications let users navigate virtual space by means of a treadmill, altered mappings of physical to virtual space, hand-held controllers, or gesture-based techniques. While all of these solutions succeed at reducing virtual reality’s demand for physical space, none of them reach the same level of immersion that real-walking provides.
Our approach is to virtualize physical space: instead of accessing physical space directly, we allow applications to express their need for space in an abstract way, which our software systems then map to the physical space available. We allow real-walking applications to run in spaces of different size, different shape, and in spaces containing different physical objects. We also allow users immersed in different virtual environments to share the same space.
Our systems achieve this by using a tracking volume-independent representation of real-walking experiences — a graph structure that expresses the spatial and logical relationships between virtual locations, virtual elements contained within those locations, and user interactions with those elements. When run in a specific physical space, this graph representation is used to define a custom mapping of the elements of the virtual reality application and the physical space by parsing the graph using a constraint solver. To re-use space, our system splits virtual scenes and overlap virtual geometry. The system derives this split by means of hierarchically clustering of our virtual objects as nodes of our bi-partite directed graph that represents the logical ordering of events of the experience. We let applications express their demands for physical space and use pre-emptive scheduling between applications to have them share space. We present several application examples enabled by our system. They all enable real-walking, despite being mapped to physical spaces of different size and shape, containing different physical objects or other users.
We see substantial real-world impact in our systems. Today’s commercial virtual reality applications are generally designing to be navigated using less immersive solutions, as this allows them to be operated on any tracking volume. While this is a commercial necessity for the developers, it misses out on the higher immersion offered by real-walking. We let developers overcome this hurdle by allowing experiences to bring real-walking to any tracking volume, thus potentially bringing real-walking to consumers.
Die eigentlichen Kosten für Virtual Reality Anwendungen entstehen nicht primär durch die erforderliche Hardware, sondern durch die Nutzung von physischem Raum, da die eins-zu-eins Abbildung von physischem auf virtuellem Raum die immersivste Art von Navigation ermöglicht. Dieses als „Real-Walking“ bezeichnete Erlebnis erfordert hinsichtlich Größe und Form eine Entsprechung von physischem Raum und virtueller Welt. Resultierend daraus können Real-Walking-Anwendungen nicht an Orten angewandt werden, für die sie nicht entwickelt wurden.
Um den Bedarf an physischem Raum zu reduzieren, lassen Entwickler von Virtual Reality-Anwendungen ihre Nutzer auf verschiedene Arten navigieren, etwa mit Hilfe eines Laufbandes, verfälschten Abbildungen von physischem zu virtuellem Raum, Handheld-Controllern oder gestenbasierten Techniken. All diese Lösungen reduzieren zwar den Bedarf an physischem Raum, erreichen jedoch nicht denselben Grad an Immersion, den Real-Walking bietet.
Unser Ansatz zielt darauf, physischen Raum zu virtualisieren: Anstatt auf den physischen Raum direkt zuzugreifen, lassen wir Anwendungen ihren Raumbedarf auf abstrakte Weise formulieren, den unsere Softwaresysteme anschließend auf den verfügbaren physischen Raum abbilden. Dadurch ermöglichen wir Real-Walking-Anwendungen Räume mit unterschiedlichen Größen und Formen und Räume, die unterschiedliche physische Objekte enthalten, zu nutzen. Wir ermöglichen auch die zeitgleiche Nutzung desselben Raums durch mehrere Nutzer verschiedener Real-Walking-Anwendungen.
Unsere Systeme erreichen dieses Resultat durch eine Repräsentation von Real-Walking-Erfahrungen, die unabhängig sind vom gegebenen Trackingvolumen – eine Graphenstruktur, die die räumlichen und logischen Beziehungen zwischen virtuellen Orten, den virtuellen Elementen innerhalb dieser Orte, und Benutzerinteraktionen mit diesen Elementen, ausdrückt. Bei der Instanziierung der Anwendung in einem bestimmten physischen Raum wird diese Graphenstruktur und ein Constraint Solver verwendet, um eine individuelle Abbildung der virtuellen Elemente auf den physischen Raum zu erreichen. Zur mehrmaligen Verwendung des Raumes teilt unser System virtuelle Szenen und überlagert virtuelle Geometrie. Das System leitet diese Aufteilung anhand eines hierarchischen Clusterings unserer virtuellen Objekte ab, die als Knoten unseres bi-partiten, gerichteten Graphen die logische Reihenfolge aller Ereignisse repräsentieren. Wir verwenden präemptives Scheduling zwischen den Anwendungen für die zeitgleiche Nutzung von physischem Raum. Wir stellen mehrere Anwendungsbeispiele vor, die Real-Walking ermöglichen – in physischen Räumen mit unterschiedlicher Größe und Form, die verschiedene physische Objekte oder weitere Nutzer enthalten.
Wir sehen in unseren Systemen substantielles Potential. Heutige Virtual Reality-Anwendungen sind bisher zwar so konzipiert, dass sie auf einem beliebigen Trackingvolumen betrieben werden können, aber aus kommerzieller Notwendigkeit kein Real-Walking beinhalten. Damit entgeht Entwicklern die Gelegenheit eine höhere Immersion herzustellen. Indem wir es ermöglichen, Real-Walking auf jedes Trackingvolumen zu bringen, geben wir Entwicklern die Möglichkeit Real-Walking zu ihren Nutzern zu bringen.
Requirements engineers have to elicit, document, and validate how stakeholders act and interact to achieve their common goals in collaborative scenarios. Only after gathering all information concerning who interacts with whom to do what and why, can a software system be designed and realized which supports the stakeholders to do their work. To capture and structure requirements of different (groups of) stakeholders, scenario-based approaches have been widely used and investigated. Still, the elicitation and validation of requirements covering collaborative scenarios remains complicated, since the required information is highly intertwined, fragmented, and distributed over several stakeholders. Hence, it can only be elicited and validated collaboratively. In times of globally distributed companies, scheduling and conducting workshops with groups of stakeholders is usually not feasible due to budget and time constraints. Talking to individual stakeholders, on the other hand, is feasible but leads to fragmented and incomplete stakeholder scenarios. Going back and forth between different individual stakeholders to resolve this fragmentation and explore uncovered alternatives is an error-prone, time-consuming, and expensive task for the requirements engineers. While formal modeling methods can be employed to automatically check and ensure consistency of stakeholder scenarios, such methods introduce additional overhead since their formal notations have to be explained in each interaction between stakeholders and requirements engineers. Tangible prototypes as they are used in other disciplines such as design, on the other hand, allow designers to feasibly validate and iterate concepts and requirements with stakeholders. This thesis proposes a model-based approach for prototyping formal behavioral specifications of stakeholders who are involved in collaborative scenarios. By simulating and animating such specifications in a remote domain-specific visualization, stakeholders can experience and validate the scenarios captured so far, i.e., how other stakeholders act and react. This interactive scenario simulation is referred to as a model-based virtual prototype. Moreover, through observing how stakeholders interact with a virtual prototype of their collaborative scenarios, formal behavioral specifications can be automatically derived which complete the otherwise fragmented scenarios. This, in turn, enables requirements engineers to elicit and validate collaborative scenarios in individual stakeholder sessions – decoupled, since stakeholders can participate remotely and are not forced to be available for a joint session at the same time. This thesis discusses and evaluates the feasibility, understandability, and modifiability of model-based virtual prototypes. Similarly to how physical prototypes are perceived, the presented approach brings behavioral models closer to being tangible for stakeholders and, moreover, combines the advantages of joint stakeholder sessions and decoupled sessions.
Dynamic resource management is an essential requirement for private and public cloud computing environments. With dynamic resource management, the physical resources assignment to the cloud virtual resources depends on the actual need of the applications or the running services, which enhances the cloud physical resources utilization and reduces the offered services cost. In addition, the virtual resources can be moved across different physical resources in the cloud environment without an obvious impact on the running applications or services production. This means that the availability of the running services and applications in the cloud is independent on the hardware resources including the servers, switches and storage failures. This increases the reliability of using cloud services compared to the classical data-centers environments.
In this thesis we briefly discuss the dynamic resource management topic and then deeply focus on live migration as the definition of the compute resource dynamic management. Live migration is a commonly used and an essential feature in cloud and virtual data-centers environments. Cloud computing load balance, power saving and fault tolerance features are all dependent on live migration to optimize the virtual and physical resources usage. As we will discuss in this thesis, live migration shows many benefits to cloud and virtual data-centers environments, however the cost of live migration can not be ignored. Live migration cost includes the migration time, downtime, network overhead, power consumption increases and CPU overhead.
IT admins run virtual machines live migrations without an idea about the migration cost. So, resources bottlenecks, higher migration cost and migration failures might happen. The first problem that we discuss in this thesis is how to model the cost of the virtual machines live migration. Secondly, we investigate how to make use of machine learning techniques to help the cloud admins getting an estimation of this cost before initiating the migration for one of multiple virtual machines. Also, we discuss the optimal timing for a specific virtual machine before live migration to another server. Finally, we propose practical solutions that can be used by the cloud admins to be integrated with the cloud administration portals to answer the raised research questions above.
Our research methodology to achieve the project objectives is to propose empirical models based on using VMware test-beds with different benchmarks tools. Then we make use of the machine learning techniques to propose a prediction approach for virtual machines live migration cost. Timing optimization for live migration is also proposed in this thesis based on using the cost prediction and data-centers network utilization prediction. Live migration with persistent memory clusters is also discussed at the end of the thesis. The cost prediction and timing optimization techniques proposed in this thesis could be practically integrated with VMware vSphere cluster portal such that the IT admins can now use the cost prediction feature and timing optimization option before proceeding with a virtual machine live migration.
Testing results show that our proposed approach for VMs live migration cost prediction shows acceptable results with less than 20% prediction error and can be easily implemented and integrated with VMware vSphere as an example of a commonly used resource management portal for virtual data-centers and private cloud environments. The results show that using our proposed VMs migration timing optimization technique also could save up to 51% of migration time of the VMs migration time for memory intensive workloads and up to 27% of the migration time for network intensive workloads. This timing optimization technique can be useful for network admins to save migration time with utilizing higher network rate and higher probability of success.
At the end of this thesis, we discuss the persistent memory technology as a new trend in servers memory technology. Persistent memory modes of operation and configurations are discussed in detail to explain how live migration works between servers with different memory configuration set up. Then, we build a VMware cluster with persistent memory inside server and also with DRAM only servers to show the live migration cost difference between the VMs with DRAM only versus the VMs with persistent memory inside.
Time-dependent correlation function based methods to study optical spectroscopy involving electronic transitions can be traced back to the work of Heller and coworkers. This intuitive methodology can be expected to be computationally efficient and is applied in the current work to study the vibronic absorption, emission, and resonance Raman spectra of selected organic molecules. Besides, the "non-standard" application of this approach to photoionization processes is also explored. The application section consists of four chapters as described below.
In Chapter 4, the molar absorptivities and vibronic absorption/emission spectra of perylene and several of its N-substituted derivatives are investigated. By systematically varying the number and position of N atoms, it is shown that the presence of nitrogen heteroatoms has a negligible effect on the molecular structure and geometric distortions upon electronic transitions, while spectral properties are more sensitive: In particular the number of N atoms is important while their position is less decisive. Thus, N-substitution can be used to fine-tune the optical properties of perylene-based molecules.
In Chapter 5, the same methods are applied to study the vibronic absorption/emission and resonance Raman spectra of a newly synthesized donor-acceptor type molecule. The simulated absorption/emission spectra agree fairly well with experimental data, with discrepancies being attributed to solvent effects. Possible modes which may dominate the fine-structure in the vibronic spectra are proposed by analyzing the correlation function with the aid of Raman and resonance Raman spectra.
In the next two chapters, besides the above types of spectra, the methods are extended to study photoelectron spectra of several small diamondoid-related systems (molecules, radicals, and cations). Comparison of the photoelectron spectra with available experimental data suggests that the correlation function based approach can describe ionization processes reasonably well. Some of these systems, cationic species in particular, exhibit somewhat peculiar optical behavior, which presents them as possible candidates for functional devices.
Correlation function based methods in a more general sense can be very versatile. In fact, besides the above radiative processes, formulas for non-radiative processes such as internal conversion have been derived in literature. Further implementation of the available methods is among our next goals.
Nowadays, reactions on surfaces are attaining great scientific interest because of their diverse applications. Some well known examples are production of ammonia on metal surfaces for fertilizers and reduction of poisonous gases from automobiles using catalytic converters. More recently, also photoinduced reactions at surfaces, useful, \textit{e.g.}, for photocatalysis, were studied in detail. Often, very short laser pulses are used for this purpose. Some of these reactions are occurring on femtosecond (1 fs=$10^{-15}$ s) time scales since the motion of atoms (which leads to bond breaking and new bond formation) belongs to this time range. This thesis investigates the femtosecond laser induced associative photodesorption of hydrogen, H$_2$, and deuterium, D$_2$, from a ruthenium metal surface. Many interesting features of this reaction were explored by experimentalists: (i) a huge isotope effect in the desorption probability of H$_2$ and D$_2$, (ii) the desorption yield increases non-linearly with the applied visible (vis) laser fluence, and (iii) unequal energy partitioning to different degrees of freedom. These peculiarities are due to the fact that an ultrashort vis pulse creates hot electrons in the metal. These hot electrons then transfer energy to adsorbate vibrations which leads to desorption. In fact, adsorbate vibrations are strongly coupled to metal electrons, \textit{i.e.}, through non-adiabatic couplings. This means that, surfaces introduce additional channels for energy exchange which makes the control of surface reactions more difficult than the control of reactions in the gas phase. In fact, the quantum yield of surface photochemical reactions is often notoriously small. One of the goals of the present thesis is to suggest, on the basis of theoretical simulations, strategies to control/enhance the photodesorption yield of H$_2$ and D$_2$ from Ru(0001). For this purpose, we suggest a \textit{hybrid scheme} to control the reaction, where the adsorbate vibrations are initially excited by an infrared (IR) pulse, prior to the vis pulse. Both \textit{adiabatic} and \textit{non-adiabatic} representations for photoinduced desorption problems are employed here. The \textit{adiabatic} representation is realized within the classical picture using Molecular Dynamics (MD) with electronic frictions. In a quantum mechanical description, \textit{non-adiabatic} representations are employed within open-system density matrix theory. The time evolution of the desorption process is studied using a two-mode reduced dimensionality model with one vibrational coordinate and one translational coordinate of the adsorbate. The ground and excited electronic state potentials, and dipole function for the IR excitation are taken from first principles. The IR driven vibrational excitation of adsorbate modes with moderate efficiency is achieved by (modified) $\pi$-pulses or/and optimal control theory. The fluence dependence of the desorption reaction is computed by including the electronic temperature of the metal calculated from the two-temperature model. Here, our theoretical results show a good agreement with experimental and previous theoretical findings. We then employed the IR+vis strategy in both models. Here, we found that vibrational excitation indeed promotes the desorption of hydrogen and deuterium. To summarize, we conclude that photocontrol of this surface reaction can be achieved by our IR+vis scheme.
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in großen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung.
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
In the last century, several astronomical measurements have supported that a significant percentage (about 22%) of the total mass of the Universe, on galactic and extragalactic scales, is composed of a mysterious ”dark” matter (DM). DM does not interact with the electromagnetic force; in other words it does not reflect, absorb or emit light. It is possible that DM particles are weakly interacting massive particles (WIMPs) that can annihilate (or decay) into Standard Model (SM) particles, and modern very- high-energy (VHE; > 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported.
With rising complexity of today's software and hardware systems and the hypothesized increase in autonomous, intelligent, and self-* systems, developing correct systems remains an important challenge. Testing, although an important part of the development and maintainance process, cannot usually establish the definite correctness of a software or hardware system - especially when systems have arbitrarily large or infinite state spaces or an infinite number of initial states. This is where formal verification comes in: given a representation of the system in question in a formal framework, verification approaches and tools can be used to establish the system's adherence to its similarly formalized specification, and to complement testing.
One such formal framework is the field of graphs and graph transformation systems. Both are powerful formalisms with well-established foundations and ongoing research that can be used to describe complex hardware or software systems with varying degrees of abstraction. Since their inception in the 1970s, graph transformation systems have continuously evolved; related research spans extensions of expressive power, graph algorithms, and their implementation, application scenarios, or verification approaches, to name just a few topics.
This thesis focuses on a verification approach for graph transformation systems called k-inductive invariant checking, which is an extension of previous work on 1-inductive invariant checking. Instead of exhaustively computing a system's state space, which is a common approach in model checking, 1-inductive invariant checking symbolically analyzes graph transformation rules - i.e. system behavior - in order to draw conclusions with respect to the validity of graph constraints in the system's state space. The approach is based on an inductive argument: if a system's initial state satisfies a graph constraint and if all rules preserve that constraint's validity, we can conclude the constraint's validity in the system's entire state space - without having to compute it.
However, inductive invariant checking also comes with a specific drawback: the locality of graph transformation rules leads to a lack of context information during the symbolic analysis of potential rule applications. This thesis argues that this lack of context can be partly addressed by using k-induction instead of 1-induction. A k-inductive invariant is a graph constraint whose validity in a path of k-1 rule applications implies its validity after any subsequent rule application - as opposed to a 1-inductive invariant where only one rule application is taken into account. Considering a path of transformations then accumulates more context of the graph rules' applications.
As such, this thesis extends existing research and implementation on 1-inductive invariant checking for graph transformation systems to k-induction. In addition, it proposes a technique to perform the base case of the inductive argument in a symbolic fashion, which allows verification of systems with an infinite set of initial states. Both k-inductive invariant checking and its base case are described in formal terms. Based on that, this thesis formulates theorems and constructions to apply this general verification approach for typed graph transformation systems and nested graph constraints - and to formally prove the approach's correctness.
Since unrestricted graph constraints may lead to non-termination or impracticably high execution times given a hypothetical implementation, this thesis also presents a restricted verification approach, which limits the form of graph transformation systems and graph constraints. It is formalized, proven correct, and its procedures terminate by construction. This restricted approach has been implemented in an automated tool and has been evaluated with respect to its applicability to test cases, its performance, and its degree of completeness.
Respiratorische Erkrankungen stellen zunehmend eine relevante globale Problematik dar. Die Erweiterung bzw. Modifizierung von Applikationswegen möglicher Arzneimittel für gezielte topische Anwendungen ist dabei von größter Bedeutung. Die Variation eines bekannten Applikationsweges durch unterschiedliche technologische Umsetzungen kann die Vielfalt der Anwendungsmöglichkeiten, aber auch die Patienten-Compliance erhöhen. Die einfache und flexible Verfahrensweise durch schnelle Verfügbarkeit und eine handliche Technologie sind heutzutage wichtige Eigenschaften im Entwicklungsprozess eines Produktes. Eine direkte topische Behandlung von Atemwegserkrankungen am Wirkort in Form einer inhalativen Applikation bietet dabei viele Vorteile gegenüber einer systemischen Therapie. Die medizinische Inhalation von Wirkstoffen über die Lunge ist jedoch eine komplexe Herausforderung. Inhalatoren gehören zu den erklärungsbedürftigen Applikationsformen, die zur Erhöhung der konsequenten Einhaltung der Verordnung so einfach, wie möglich gestaltet werden müssen. Parallel besitzen und nutzen weltweit annähernd 68 Millionen Menschen die Technologie eines inhalativen Applikators zur bewussten Schädigung ihrer Gesundheit in Form einer elektronischen Zigarette. Diese bekannte Anwendung bietet die potentielle Möglichkeit einer verfügbaren, kostengünstigen und qualitätsgeprüften Gesundheitsmaßnahme zur Kontrolle, Prävention und Heilung von Atemwegserkrankungen. Sie erzeugt ein Aerosol durch elektrothermische Erwärmung eines sogenannten Liquids, das durch Kapillarkräfte eines Trägermaterials an ein Heizelement gelangt und verdampft. Ihr Bekanntheitsgrad zeigt, dass eine beabsichtigte Wirkung in den Atemwegen eintritt. Diese Wirkung könnte jedoch auch auf potentielle pharmazeutische Einsatzgebiete übertragbar sein. Die Vorteile der pulmonalen Verabreichung sind dabei vielfältig. Im Vergleich zur peroralen Applikation gelangt der Wirkstoff gezielt zum Wirkort. Wenn eine systemische Applikation zu Arzneimittelkonzentrationen unterhalb der therapeutischen Wirksamkeit in der Lunge führt, könnte eine inhalative Darreichung bereits bei niedriger Dosierung die gewünschten höheren Konzentrationen am Wirkort hervorrufen. Aufgrund der großen Resorptionsfläche der Lunge sind eine höhere Bioverfügbarkeit und ein schnellerer Wirkungseintritt infolge des fehlenden First-Pass-Effektes möglich. Es kommt ebenfalls zu minimalen systemischen Nebenwirkungen. Die elektronische Zigarette erzeugt wie die medizinischen Inhalatoren lungengängige Partikel. Die atemzuggesteuerte Technik ermöglicht eine unkomplizierte und intuitive Anwendung. Der prinzipielle Aufbau besteht aus einer elektrisch beheizten Wendel und einem Akku. Die Heizwendel ist von einem sogenannten Liquid in einem Tank umgeben und erzeugt das Aerosol. Das Liquid beinhaltet eine Basismischung bestehend aus Propylenglycol, Glycerin und reinem Wasser in unterschiedlichen prozentualen Anteilen. Es besteht die Annahme, dass das Basisliquid auch mit pharmazeutischen Wirkstoffen für die pulmonale Applikation beladen werden kann. Aufgrund der thermischen Belastung durch die e-Zigarette müssen potentielle Wirkstoffe sowie das Vehikel eine thermische Stabilität aufweisen.
Die potentielle medizinische Anwendung der Technologie einer handelsüblichen e-Zigarette wurde anhand von drei Schwerpunkten an vier Wirkstoffen untersucht. Die drei ätherischen Öle Eucalyptusöl, Minzöl und Nelkenöl wurden aufgrund ihrer leichten Flüchtigkeit und der historischen pharmazeutischen Anwendung anhand von Inhalationen bei Erkältungssymptomen bzw. im zahnmedizinischen Bereich gewählt. Das eingesetzte Cannabinoid Cannabidiol (CBD) hat einen aktuellen Bezug zu dem pharmazeutischen Markt Deutschlands zur Legalisierung von cannabishaltigen Produkten und der medizinischen Forschung zum inhalativen Konsum. Es wurden relevante wirkstoffhaltige Flüssigformulierungen entwickelt und hinsichtlich ihrer Verdampfbarkeit zu Aerosolen bewertet. In den quantitativen und qualitativen chromatographischen Untersuchungen konnten spezifische Verdampfungsprofile der Wirkstoffe erfasst und bewertet werden. Dabei stieg die verdampfte Masse der Leitsubstanzen 1,8-Cineol (Eucalyptusöl), Menthol (Minzöl) und Eugenol (Nelkenöl) zwischen 33,6 µg und 156,2 µg pro Zug proportional zur Konzentration im Liquid im Bereich zwischen 0,5% und 1,5% bei einer Leistung von 20 Watt. Die Freisetzungsrate von Cannabidiol hingegen schien unabhängig von der Konzentration im Liquid im Mittelwert bei 13,3 µg pro Zug zu liegen. Dieses konnte an fünf CBD-haltigen Liquids im Konzentrationsbereich zwischen 31 µg/g und 5120 µg/g Liquid gezeigt werden. Außerdem konnte eine Steigerung der verdampften Massen mit Zunahme der Leistung der e-Zigarette festgestellt werden. Die Interaktion der Liquids bzw. Aerosole mit den Bestandteilen des Speichels sowie weiterer gastrointestinaler Flüssigkeiten wurde über die Anwendung von zugehörigen in vitro Modellen und Einsatz von Enzymaktivitäts-Assays geprüft. In den Untersuchungen wurden Änderungen von Enzymaktivitäten anhand des oralen Schlüsselenzyms α-Amylase sowie von Proteasen ermittelt. Damit sollte exemplarisch ein möglicher Einfluss auf physiologische bzw. metabolische Prozesse im humanen Organismus geprüft werden. Das Bedampfen von biologischen Suspensionen führte bei niedriger Leistung der e-Zigarette (20 Watt) zu keiner bzw. einer leichten Änderung der Enzymaktivität. Die Anwendung einer hohen Leistung (80 Watt) bewirkte tendenziell das Herabsetzen der Enzymaktivitäten. Die Erhöhung der Enzymaktivitäten könnte zu einem enzymatischen Abbau von Schleimstoffen wie Mucinen führen, was wiederum die effektive, mechanische Abwehr gegenüber bakteriellen Infektionen zur Folge hätte. Da eine Anwendung der Applikation insbesondere bei bakteriellen Atemwegserkrankungen denkbar wäre, folgten abschließend Untersuchungen der antibakteriellen Eigenschaften der Liquids bzw. Aerosole in vitro. Es wurden sechs klinisch relevante bakterielle Krankheitserreger ausgewählt, die nach zwei Charakteristika gruppiert werden können. Die drei multiresistenten Bakterien Pseudomonas aeruginosa, Klebsiella pneumoniae und Methicillin-resistenter Staphylococcus aureus können mithilfe von üblichen Therapien mit Antibiotika nicht abgetötet werden und haben vor allem eine nosokomiale Relevanz. Die zweite Gruppe weist Eigenschaften auf, die vordergründig assoziiert sind mit respiratorischen Erkrankungen. Die Bakterien Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae sind repräsentativ beteiligt an Atemwegserkrankungen mit diverser Symptomatik. Die Bakterienarten wurden mit den jeweiligen Liquids behandelt bzw. bedampft und deren grundlegende Dosis-Wirkungsbeziehung charakterisiert. Dabei konnte eine antibakterielle Aktivität der Formulierungen ermittelt werden, die durch Zugabe eines Wirkstoffes die bereits antibakterielle Wirkung der Bestandteile Glycerin und Propylenglycol verstärkte. Die hygroskopischen Eigenschaften dieser Substanzen sind vermutlich für eine Wirkung in aerosolierter Form verantwortlich. Sie entziehen die Feuchtigkeit aus der Luft und haben einen austrocknenden Effekt auf die Bakterien. Das Bedampfen der Bakterienarten Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae hatte einen antibakteriellen Effekt, der zeitlich abhängig von der Leistung der e-Zigarette war.
Die Ergebnisse der Untersuchungen führen zu dem Schluss, dass jeder Wirkstoff bzw. jede Substanzklasse individuell zu bewerten ist und somit Inhalator und Formulierung aufeinander abgestimmt werden müssen. Der Einsatz der e-Zigarette als Medizinprodukt zur Applikation von Arzneimitteln setzt stets Prüfungen nach Europäischem Arzneibuch voraus. Durch Modifizierungen könnte eine Dosierung gut kontrollierbar gemacht werden, aber auch die Partikelgrößenverteilung kann insoweit reguliert werden, dass die Wirkstoffe je nach Partikelgröße zu einem geeigneten Applikationsort wie Mund, Rachen oder Bronchien transportiert werden. Der Vergleich mit den Eigenschaften anderer medizinischer Inhalatoren führt zu dem Schluss, dass die Technologie der e-Zigarette durchaus eine gleichartige oder bessere Performance für thermisch stabile Wirkstoffe bieten könnte. Dieses fiktive Medizinprodukt könnte aus einer hersteller-unspezifisch produzierten, wieder aufladbaren Energiequelle mit Universalgewinde zum mehrfachen Gebrauch und einer hersteller- und wirkstoffspezifisch produzierten Einheit aus Verdampfer und Arzneimittel bestehen. Das Arzneimittel, ein medizinisches Liquid (Vehikel und Wirkstoff) kann in dem Tank des Verdampfers mit konstanten, nicht variablen Parametern patientenindividuell produziert werden. Inhalative Anwendungen werden perspektivisch wohl nicht zuletzt aufgrund der aktuellen COVID-19-Pandemie eine zunehmende Rolle spielen. Der Bedarf nach alternativen Therapieoptionen wird weiter ansteigen. Diese Arbeit liefert einen Beitrag zum Einsatz der Technologie der elektronischen Zigarette als electronic nicotin delivery system (ENDS) nach Modifizierung zu einem potentiellen pulmonalen Applikationssystem als electronic drug delivery system (EDDS) von inhalativen, thermisch stabilen Arzneimitteln in Form eines Medizinproduktes.
Einleitung: Vorliegende empirische Daten verdeutlichen, dass in der Fachwelt zwar weites gehend Einigkeit über die Wirkung des Mediums Wasser auf den Organismus in Ruhe (metabolisch und endokrin) besteht, aber differente Aussagen bei Immersion und Bewegung (hämodynamisch, metabolisch und endokrin) getroffen werden. Wie unterscheidet sich die physische Beanspruchung an Land und im Wasser? Gelten die allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings- bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen? Ergebnisse und Diskussion: Die Herzfrequenz, der systolische Blutdruck und der Sauerstoffverbrauch waren in Ruhe (baseline) an der anaeroben Schwelle und während der Ausbelastung auf dem Land und im Wasser ähnlich. Der Respiratorische Quotient wurde gering reduziert, als die Probanden im Wasser trainierten. Die Glukose- und Laktatkonzentration wurden vermindert, wohingegen die freie Fettsäurekonzentration mit der Belastung im Wasser erhöht wurde. Wasserimmersion senkte die Adrenalin- und Noradrenalinkonzentration und erhöhte die vermehrte ANP-Produktion während der Belastung. Belastungsinduzierte Anstiege endokriner Parameter (Adrenalin und Noradrenalin) sind im Wasser geringer ausgeprägt als an Land. Hinsichtlich der Stoffwechselregulation konnte beobachtet werden, dass ANP eine Rolle bei der Regulation des Fettstoffwechsels spielt. Die Ergebnisse lassen vermuten, dass Belastungen im Wasser vor allem eine spezifische humorale und metabolische Antwort des Organismus entlocken. Belastungsinduzierte Anstiege endokriner Parameter (Katecholamine) im Wasser sind geringer ausgeprägt als an Land. Immersions- und Belastungseffekte scheinen teilweise konträre Reize zu sein. Es sind daher weiterhin experimentelle Untersuchungen notwendig, um die Regulationsmechanismen des Organismus zur Kompensation eines erhöhten venösen Rückstroms bei Immersion ohne und vor allem mit Bewegung zu klären. Auf Grund der geringen Unterschiede in der hämodynamischen Reaktion des Körpers bei vergleichbarer körperlicher Belastung Land vs. Wasser kann sich an den allgemeingültigen Empfehlungen an Land zur Steuerung erwünschter Trainings-bzw. Belastungseffekte auch für aquale Bewegungs- und Trainingsformen orientiert werden.
Escherichia (E.) coli ist als kommensales Bakterium ein wichtiger Bestandteil des Mikrobioms von Säugern, jedoch zudem der häufigste Infektionserreger des Menschen. Entsprechend des Infektionsortes werden intestinal (InPEC) und extraintestinal pathogene E. coli (ExPEC) unterschieden. Die Pathogenese von E. coli-Infektionen ist durch Virulenzfaktoren determiniert, welche von jeweils spezifischen virulenzassoziierten Genen (inVAGs und exVAGs) kodiert werden. Häufig werden exVAGs auch in E. coli-Isolaten aus dem Darm gesunder Wirte nachgewiesen. Dies führte zu der Vermutung, dass exVAGs die intestinale Kolonisierung des Wirtes durch E. coli unterstützen. Das Hauptziel dieser Arbeit bestand darin, das Wissen über den Einfluss von exVAGs auf die Besiedlung und damit die Adhäsion von E. coli an Epithelzellen des Darmtraktes zu erweitern. Die Durchführung einer solch umfassenden E. coli-Populationsstudie erforderte die Etablierung neuer Screeningmethoden. Für die genotypische Charakterisierung wurden mikropartikelbasierte Multiplex-PCR-Assays zum Nachweis von 44 VAGs und der Phylogenie etabliert. Für die phänotypische Charakterisierung wurden Adhäsions- und Zytotoxizitätsassays etabliert. Die Screeningmethoden basieren auf der VideoScan-Technologie, einem automatisierten bildbasierten Multifluoreszenzdetektionssystem. Es wurden 398 E. coli-Isolate aus 13 Wildsäugerarten und 5 Wildvogelarten sowie aus gesunden und harnwegserkrankten Menschen und Hausschweinen charakterisiert. Die Adhäsionsassays hatten zum Ziel, sowohl die Adhäsionsraten als auch die Adhäsionsmuster der 317 nicht hämolytischen Isolate auf 5 Epithelzelllinien zu bestimmen. Die Zytotoxizität der 81 hämolytischen Isolate wurde in Abhängigkeit der Inkubationszeit auf 4 Epithelzelllinien geprüft. In den E. coli-Isolaten wurde eine Reihe von VAGs nachgewiesen. Potentielle InPEC, insbesondere shigatoxinproduzierende und enteropathogene E. coli wurden aus Menschen, Hausschweinen und Wildtieren, vor allem aus Rehen und Feldhasen isoliert. exVAGs wurden mit stark variierender Prävalenz in Isolaten aus allen Arten detektiert. Die größte Anzahl und das breiteste Spektrum an exVAGs wurde in Isolaten aus Urin harnwegserkrankter Menschen, gefolgt von Isolaten aus Dachsen und Rehen nachgewiesen. In Isolaten der phylogenetischen Gruppe B2 wurden mehr exVAGs detektiert als in den Isolaten der phylogenetischen Gruppen A, B1 und D. Die Ergebnisse der Adhäsionsassays zeigten, dass die meisten Isolate zelllinien-, gewebe- oder wirtsspezifisch adhärierten. Ein Drittel der Isolate adhärierte an keiner Zelllinie und nur zwei Isolate adhärierten stark an allen Zelllinien. Grundsätzlich adhärierten mehr Isolate an humanen sowie an intestinalen Zelllinien. Besonders Isolate aus Eichhörnchen und Amseln sowie aus Urin harnwegserkrankter Menschen und Hausschweine waren in der Lage, stark zu adhärieren. Hierbei bildeten die Isolate als Adhäsionsmuster diffuse Adhäsion, Mikrokolonien, Ketten und Agglomerationen. Mittels statistischer Analysen wurden Assoziationen zwischen exVAGs und einer hohen Adhäsionsrate ersichtlich. So war beispielsweise das Vorkommen von afa/dra mit einer höheren Adhäsionsrate auf Caco-2- und 5637-Zellen und von sfa/foc auf IPEC-J2-Zellen assoziiert. Die Ergebnisse der Zytotoxizitätsassays zeigten eine sehr starke und zeitabhängige Zerstörung der Monolayer aller Epithelzelllinien durch die α-Hämolysin-positiven Isolate. Auffallend war die hohe Toxizität hämolytischer Isolate aus Wildtieren gegenüber den humanen Zelllinien. Mit den innerhalb dieser Arbeit entwickelten Screeningmethoden war es möglich, große Mengen an Bakterien zu charakterisieren. Es konnte ein Überblick über die Verbreitung von VAGs in E. coli aus unterschiedlichen Wirten gewonnen werden. Besonders Wildtiere wurden sowohl durch den Nachweis von VAGs in den entsprechenden Isolaten, verbunden mit deren Adhäsionsfähigkeit und ausgeprägter Zytotoxizität als Reservoire pathogener E. coli identifiziert. Ebenso wurde eine zelllinienspezifische Adhäsion von Isolaten mit bestimmten exVAGs deutlich. Damit konnte der mögliche Einfluss von exVAGs auf die intestinale Kolonisierung bestätigt werden. In weiterführenden Arbeiten sind jedoch Expressions- und Funktionsanalysen der entsprechenden Proteine unerlässlich. Es wird anhand der Mikrokoloniebildung durch kommensale E. coli vermutet, dass Adhäsionsmuster und demzufolge Kolonisierungsstrategien, die bisher pathogenen E. coli zugeschrieben wurden, eher als generelle Kolonisierungsstrategien zu betrachten sind. Das E. coli-α-Hämolysin wirkt im Allgemeinen zytotoxisch auf Epithelzellen. Ein in der Fachliteratur diskutierter adhäsionsunterstützender Mechanismus dieses Toxins ist demnach fragwürdig. Innerhalb dieser Arbeit konnte gezeigt werden, dass die entwickelten Screeningmethoden umfassende Analysen einer großen Anzahl an E. coli-Isolaten ermöglichen.
Flugzeug- und Shuttle getragene SAR-Systeme werden zur Ableitung des Bodenwassergehalt im Oberboden verwendet. Die Untersuchungsgebiete lagen auf der Insel Rügen, in Oberbayern (Oberpfaffenhofen) und in Oklahoma (Little Washita). Die Regionalierung mit Fernerkundungsdaten wird anhand von geostatistisch aufbereiteten Referenzmessungen aus dem Feld verifiziert. Verschiedene Ableitungsverfahren (Regression, Rückstreuungsmodellierung, Nomogramme und Inversionsmodellierung) werden verglichen und Fehlermargen werden abgeleitet.
Vergleich von rekombinanten Vaccinia- und DNA-Vektoren zur Tumorimmuntherapie im C57BL/6-Mausmodell
(2002)
In der vorliegenden Arbeit wurden Tumorimpfstoffe auf der Basis des Plasmid-Vektors pCI, modified vaccinia virus Ankara (MVA) und MVA-infizierten dendritischen Zellen entwickelt und durch Sequenzierung, Western blotting und durchflußzytometrische Analyse überprüft. Die in vivo Wirksamkeit der Vakzinen wurde in verschiedenen Tumormodellen in C57BL/6 Mäusen verglichen. Die auf dem eukaryotischen Expressionsvektor pCI basierende DNA-Vakzinierung induzierte einen sehr wirksamen, antigenspezifischen und langfristigen Schutz vor Muzin, CEA oder beta-Galactosidase exprimierenden Tumoren. Eine MVA-Vakzinierung bietet in den in dieser Arbeit durchgeführten Tumormodellen keinen signifikanten Schutz vor Muzin oder beta-Galactosidase exprimierenden Tumoren. Sowohl humane, als auch murine in vitro generierte dendritische Zellen lassen sich mit MVA – im Vergleich zu anderen viralen Vektoren – sehr gut infizieren. Die Expressionsrate der eingefügten Gene ist aber gering im Vergleich zur Expression in permissiven Wirtszellen des Virus (embryonale Hühnerfibroblasten). Es konnte gezeigt werden, daß eine MVA-Infektion dendritischer Zellen ähnliche Auswirkungen auf den Reifezustand humaner und muriner dendritischer Zellen hat, wie eine Infektion mit replikationskompetenten Vakzinia-Stämmen, und außerdem die Hochregulation von CD40 während der terminalen Reifung von murinen dendritischen Zellen inhibiert wird. Die während der langfristigen in vitro Kultur auf CEF-Zellen entstandenen Deletionen im MVA Genom führten zu einer starken Attenuierung und dem Verlust einiger Gene, die immunmodulatorische Proteine kodieren, jedoch nicht zu einer Verminderung des zytopathischen Effekts in dendritischen Zellen. Die geringe Expressionsrate und die beobachtete Inhibition der Expression kostimulatorischer Moleküle auf dendritischen Zellen kann für eine wenig effektive Induktion einer Immunantwort in MVA vakzinierten Tieren durch cross priming oder die direkte Infektion antigenpräsentierender Zellen verantwortlich sein. Durch die Modifikation einer Methode zur intrazellulären IFN-gamma Färbung konnten in vakzinierten Mäusen tumorantigenspezifische CTL sensitiv und quantitativ detektiert werden. Die so bestimmte CTL-Frequenz, nicht jedoch die humorale Antwort, korrelierte mit der in vivo Wirksamkeit der verschiedenen Vakzinen: DNA vakzinierte Tiere entwickeln starke tumorantigenspezifische CTL-Antworten, wohingegen in MVA-vakzinierten Tieren überwiegend gegen virale Epitope gerichtete CD4 und CD8-T-Zellen detektiert wurden. Die Wirksamkeit der pCI-DNA-Vakzine spricht für die Weiterentwicklung in weiteren präklinischen Mausmodellen, beispielsweise unter Verwendung von MUC1 oder HLA-A2 transgenen Mäusen. Die Methoden zur Detektion Tumorantigen-spezifischer CTL in 96-Loch-Mikrotiterplatten können dabei zur systematischen Suche nach im Menschen immundominanten T-Zell-Epitopen im Muzin-Molekül genutzt werden. Der durchgeführte Vergleich der auf den Vektoren pCI und MVA basierenden Vakzinen und die Analyse neuerer Publikationen führen zu dem Ergebnis, daß vor allem DNA-Vakzinen in Zukunft eine wichtige Rolle bei der Entwicklung von aktiven Tumorimpfstoffen spielen werden. Rekombinante MVA-Viren, eventuell in Kombination mit DNA- oder anderen Vektoren, haben sich dagegen in zahlreichen Studien als wirksame Impfstoffe zur Kontrolle von durch Pathogene hervorgerufenen Infektionserkrankungen erwiesen.
Die wachsenden Kosten für die Behandlung chronischer lumbaler Rückenschmerzen stehen zunehmend in Diskrepanz mit den begrenzten Mitteln für das Gesundheitswesen. Untersuchungen zeigen, dass aktive Trainingsprogramme, je früher sie eingesetzt werden, einen positiven Einfluss auf die Senkung von Kosten für die Gesellschaft haben. Ein rechtzeitiger Einsatz der medizinischen Kräftigungstherapie bei Rückenschmerzpatienten ist somit unter rehabilitativen Gesichtspunkten notwendig. Insbesondere das Training im Wasser gestattet gelenkschonende Übungen in frühen Phasen der Rehabilitation und lassen eine raschere Wiederherstellung erwarten. Über die körperlichen Auswirkungen therapeutischer Trainingsmaßnahmen im Wasser sind bis dato wenige Studien verfügbar, welche die Wirkung des Mediums Wasser auf konditionelle Parameter objektiv quantifizieren und bewerten. Jedoch sind bislang die Möglichkeiten für ein gezieltes Krafttraining im Wasser begrenzt. Eine gerätetechnische Entwicklung, die ein rumpfstabilisierendes Krafttraining im Warmwasser ermöglicht, lässt im Vergleich zu herkömmlichen Trainingsmöglichkeiten eine noch effizientere rehabilitative Behandlung erwarten. Es wird die Fragestellung verfolgt, inwieweit aktive Trainingsformen im Wasser die Maximalkraft und die neuromuskuläre Funktion der Rumpfmuskulatur, sowie den Schmerz von Rückenpatienten beeinflussen. Ferner soll im Rahmen der Untersuchungen die Effektivität eines neu entwickelten Wassertrainingsgerätes geprüft werden. Die Untersuchungen der Ergebnisse von 80 weiblichen Probanden (in fünf Gruppen aufgeteilt: Kontrollgruppe, Aquajogging, Aquarücken, Aquagerät und Rückengymnastik an Land) zeigen, dass durch aktive Interventionsmaßnahmen eine Verbesserung der Kraftfähigkeit und eine Reduzierung von Schmerzen erzielt werden kann. Hingegen kommt es in der Kontrollgruppe, ohne Trainingsanwendungen, zur Stagnation des chronischen Schmerzzustandes, sogar zur Verschlechterung der Kraftentwicklung der Rückenstreckmuskulatur. In allen Trainingsgruppen konnten kurzfristig und mittelfristig weniger Muskelfunktionsstörungen nachgewiesen werden. Bei Betrachtung der Kraftentwicklung der unteren Rumpfmuskulatur fällt auf, dass die höchsten Zuwächse der Bauchmuskelkraft in den Gruppen Aquarücken und Aquagerät festzustellen sind. Die Kraft der Rückenstreckermuskulatur entwickelte sich in der Gruppe Aquagerät mit einer Steigerung von 55% nach der Intervention am stärksten. Es kann die Hypothese aufgestellt werden, dass das Training im warmen Wasser unter stabilisierten Voraussetzungen eine effizientere Methode zur Stärkung der unteren Rumpfmuskulatur zu sein scheint. Bei der Entwicklung der Kraft der oberen Rücken- und Schultergürtelmuskulatur kommt es in den Gruppen Aquajogging und Aquarücken zu den größten Steigerungen. Dies könnte mit der höheren Aktivität der Arme im Übungsprogramm zusammenhängen. Positiv ist die hohe Reduzierung der Schmerzen in allen Trainingsgruppen zu bewerten. Jedoch ist bei Betrachtung der Ergebnisse festzustellen, dass für eine weitere Manifestierung der Trainingserfolge ein weiterführendes Training bedeutsam ist. Die Ergebnisse dieser Studie belegen, dass durch ein gezieltes Training im Wasser und an Land über 6 Wochen, je zweimal pro Woche, deutliche Verbesserungen in der Entwicklung von Kraft, Schmerzintensität, Funktionseinschränkung und Muskelfunktion möglich sind. Ferner werden in dieser Arbeit positive Zusammenhänge zwischen den Entwicklungen Schmerzintensität und Rückenstreckerkraft, sowie Schmerzintensität und Bauchmuskelkraft beobachtet. Zwischen den Versuchsgruppen im Wasser und der Versuchsgruppe an Land konnten nur geringe Unterschiede in den Ergebnissen nachgewiesen werden. Jedoch geben die Resultate Hinweis darauf, dass bei höheren Schmerzintensitäten die Intervention im Wasser die Therapie der Wahl zu sein scheint. Die Resultate dieser Untersuchungen machen deutlich, dass der Einsatz eines Wassertrainingsgerätes in der Therapie chronischer Rückenschmerzpatienten eine effiziente Methode zur Senkung von Schmerzen und zur Steigerung der Kraft der Rücken- und Bauchmuskulatur ist. Vorteile des Wassertraingsgerätes sind die gute Stabilisation des Beckens, trotz auftriebswirksamer Mechanismen im Wasser, die bedienerfreundliche Handhabung, der separat einstellbare Widerstand, die schnellen Therapieerfolge und die hohe Motivation der Kursteilnehmer. Diese Beobachtungen lassen eine effizientere Therapie und damit Kostenersparnisse vermuten. Nachteile sind das hohe Gewicht des Wassertraingsgerätes und die relativ hohen Anschaffungskosten. Die hohe Reduzierung der Schmerzintensität bei den Probanden, die am Wassertrainingsgerät Interventionen durchführten, lassen vermuten, dass diese Geräteanwendungen für Patienten mit sehr schmerzhaften oder subakuten Verlaufsformen besonders geeignet ist. Der schonende Charakter der Aquatherapie und der Einsatz eines neuen Wassertrainingsgerätes unterstützt in effektiver Weise die modernen Konzepte der Rehabilitation chronischer Rückenschmerzpatienten.
Mit dem Alter kann eine Zunahme leichtgradiger Entzündungsprozesse beobachtet werden, von denen angenommen wird, dass sie den typischen, altersbedingten Verlust an Muskelmasse, -kraft und -funktion „befeuern“. Diese als Inflammaging bezeichneten Prozesse können auf ein komplexes Zusammenspiel aus einem dysfunktionalen (viszeralen) Fettgewebe, einer Dysbiose und damit einhergehender mikrobiellen Translokation und geringeren Abwehrfähigkeit sowie einer insgesamt zunehmenden Immunseneszenz zurückgeführt werden. In Summa begünstigt ein pro-inflammatorisches Milieu metabolische Störungen und chronische, altersassoziierte Erkrankungen, die das Entzündungsgeschehen aufrechterhalten oder vorantreiben. Neben einem essenziellen Bewegungsmangel trägt auch eine westlich geprägte, industrialisierte Ernährungsweise zum Entzündungsgeschehen und zur Entwicklung chronischer Erkrankungen bei. Daher liegt die Vermutung nahe, dem Entzündungsgeschehen mit ausreichend Bewegung und einer anti-inflammatorischen Ernährung entgegenzuwirken. In dieser Hinsicht werden insbesondere Omega-3-Fettsäuren (Omega-3) mit anti-inflammatorischen Eigenschaften verbunden. Obwohl ein Zusammenhang zwischen dem ernährungsbedingten Inflammationspotenzial bzw. der Zufuhr von Omega-3 und dem Inflammationsprofil bereits untersucht wurde, fehlen bislang Untersuchungen insbesondere bei älteren Erwachsenen, die den Link zwischen dem Inflammationspotenzial der Ernährung und Sarkopenie-relevanten Muskelparametern herstellen.
Aufgrund des Proteinmehrbedarfs zum Erhalt der funktionellen Muskulatur im Alter wurde bereits eine Vielzahl an Sport- und Ernährungsinterventionen durchgeführt, die eine Verbesserung des Muskelstatus mit Hilfe von strukturiertem Krafttraining und einer proteinreichen Ernährung zeigen. Es gibt zudem Hinweise, dass Omega-3 auch die Proteinsynthese verstärken könnten. Unklar ist jedoch, inwiefern eine anti-inflammatorische Ernährung mit Fokus auf Omega-3 sowohl die Entzündungsprozesse als auch den Muskelproteinmetabolismus und die neuromuskuläre Funktionalität im Alter günstig unterstützen kann. Dies vor allem im Hinblick auf die Muskelleistung, die eng mit der Sturzneigung und der Autonomie im Alltag verknüpft ist, aber in Interventionsstudien mit älteren Erwachsenen bisher wenig Berücksichtigung erhielt. Darüber hinaus werden häufig progressive Trainingselemente genutzt, die nach Studienabschluss oftmals wenig Anschluss im Lebensalltag der Betroffenen finden und somit wenig nachhaltig sind. Ziel dieser Arbeit war demnach die Evaluierung einer proteinreichen und zusätzlich mit Omega-3 supplementierten Ernährung in Kombination mit einem wöchentlichen Vibrationstraining und altersgemäßen Bewegungsprogramm auf Inflammation und neuromuskuläre Funktion bei älteren, selbständig lebenden Erwachsenen.
Hierzu wurden zunächst mögliche Zusammenhänge zwischen dem ernährungsbedingten Inflammationspotenzial, ermittelt anhand des Dietary Inflammatory Index, und dem Muskelstatus sowie dem Inflammationsprofil im Alter eruiert. Dazu dienten die Ausgangswerte von älteren, selbständig lebenden Erwachsenen einer postprandialen Interventionsstudie (POST-Studie), die im Querschnitt analysiert wurden. Die Ergebnisse bestätigten, dass eine pro-inflammatorische Ernährung sich einerseits in einem stärkeren Entzündungsgeschehen widerspiegelt und andererseits mit Sarkopenie-relevanten Parametern, wie einer geringeren Muskelmasse und Gehgeschwindigkeit, ungünstig assoziiert ist. Darüber hinaus zeigten sich diese Zusammenhänge auch in Bezug auf die Handgreifkraft bei den inaktiven, älteren Erwachsenen der Studie.
Anschließend wurde in einer explorativ ausgerichteten Pilot-Interventionsstudie (AIDA-Studie) in einem dreiarmigen Design untersucht, inwieweit sich eine Supplementierung mit Omega-3 unter Voraussetzung einer optimierten Proteinzufuhr und altersgemäßen Sportintervention mit Vibrationstraining auf die neuromuskuläre Funktion und Inflammation bei selbständig lebenden, älteren Erwachsenen auswirkt. Nach acht Wochen Intervention zeigte sich, dass eine mit Omega-3 supplementierte, proteinreiche Ernährung die Muskelleistung insbesondere bei den älteren Männern steigerte. Während sich die Kontrollgruppe nach acht Wochen Sportintervention nicht verbesserte, bestätigte sich zusätzlich eine Verbesserung der Beinkraft und der Testzeit beim Stuhl-Aufsteh-Test der älteren Erwachsenen mit einer proteinreichen Ernährung in Kombination mit der Sportintervention.
Darüber hinaus wurde deutlich, dass die zusätzliche Omega-3-Supplementierung insbesondere bei den Männern eine Reduktion der pro-inflammatorischen Zytokine im Serum zur Folge hatte. Allerdings spiegelten sich diese Beobachtungen nicht auf Genexpressionsebene in mononukleären Immunzellen oder in der LPS-induzierten Sekretion der Zytokine und Chemokine in Vollblutzellkulturen wider. Dies erfordert weitere Untersuchungen.
The main intention of the PhD project was to create a varve chronology for the Suigetsu Varves 2006' (SG06) composite profile from Lake Suigetsu (Japan) by thin section microscopy. The chronology was not only to provide an age-scale for the various palaeo-environmental proxies analysed within the SG06 project, but also and foremost to contribute, in combination with the SG06 14C chronology, to the international atmospheric radiocarbon calibration curve (IntCal). The SG06 14C data are based on terrestrial leaf fossils and therefore record atmospheric 14C values directly, avoiding the corrections necessary for the reservoir ages of the marine datasets, which are currently used beyond the tree-ring limit in the IntCal09 dataset (Reimer et al., 2009). The SG06 project is a follow up of the SG93 project (Kitagawa & van der Plicht, 2000), which aimed to produce an atmospheric calibration dataset, too, but suffered from incomplete core recovery and varve count uncertainties. For the SG06 project the complete Lake Suigetsu sediment sequence was recovered continuously, leaving the task to produce an improved varve count. Varve counting was carried out using a dual method approach utilizing thin section microscopy and micro X-Ray Fluorescence (µXRF). The latter was carried out by Dr. Michael Marshall in cooperation with the PhD candidate. The varve count covers 19 m of composite core, which corresponds to the time frame from ≈10 to ≈40 kyr BP. The count result showed that seasonal layers did not form in every year. Hence, the varve counts from either method were incomplete. This rather common problem in varve counting is usually solved by manual varve interpolation. But manual interpolation often suffers from subjectivity. Furthermore, sedimentation rate estimates (which are the basis for interpolation) are generally derived from neighbouring, well varved intervals. This assumes that the sedimentation rates in neighbouring intervals are identical to those in the incompletely varved section, which is not necessarily true. To overcome these problems a novel interpolation method was devised. It is computer based and automated (i.e. avoids subjectivity and ensures reproducibility) and derives the sedimentation rate estimate directly from the incompletely varved interval by statistically analysing distances between successive seasonal layers. Therefore, the interpolation approach is also suitable for sediments which do not contain well varved intervals. Another benefit of the novel method is that it provides objective interpolation error estimates. Interpolation results from the two counting methods were combined and the resulting chronology compared to the 14C chronology from Lake Suigetsu, calibrated with the tree-ring derived section of IntCal09 (which is considered accurate). The varve and 14C chronology showed a high degree of similarity, demonstrating that the novel interpolation method produces reliable results. In order to constrain the uncertainties of the varve chronology, especially the cumulative error estimates, U-Th dated speleothem data were used by linking the low frequency 14C signal of Lake Suigetsu and the speleothems, increasing the accuracy and precision of the Suigetsu calibration dataset. The resulting chronology also represents the age-scale for the various palaeo-environmental proxies analysed in the SG06 project. One proxy analysed within the PhD project was the distribution of event layers, which are often representatives of past floods or earthquakes. A detailed microfacies analysis revealed three different types of event layers, two of which are described here for the first time for the Suigetsu sediment. The types are: matrix supported layers produced as result of subaqueous slope failures, turbidites produced as result of landslides and turbidites produced as result of flood events. The former two are likely to have been triggered by earthquakes. The vast majority of event layers was related to floods (362 out of 369), which allowed the construction of a respective chronology for the last 40 kyr. Flood frequencies were highly variable, reaching their greatest values during the global sea level low-stand of the Glacial, their lowest values during Heinrich Event 1. Typhoons affecting the region represent the most likely control on the flood frequency, especially during the Glacial. However, also local, non-climatic controls are suggested by the data. In summary, the work presented here expands and revises knowledge on the Lake Suigetsu sediment and enabls the construction of a far more precise varve chronology. The 14C calibration dataset is the first such derived from lacustrine sediments to be included into the (next) IntCal dataset. References: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150
Rheology describes the flow of matter under the influence of stress, and - related to solids- it investigates how solids subjected to stresses deform. As the deformation of the Earth’s outer layers, the lithosphere and the crust, is a major focus of rheological studies, rheology in the geosciences describes how strain evolves in rocks of variable composition and temperature under tectonic stresses. It is here where deformation processes shape the form of ocean basins and mountain belts that ultimately result from the complex interplay between lithospheric plate motion and the susceptibility of rocks to the influence of plate-tectonic forces. A rigorous study of the strength of the lithosphere and deformation phenomena thus requires in-depth studies of the rheological characteristics of the involved materials and the temporal framework of deformation processes.
This dissertation aims at analyzing the influence of the physical configuration of the lithosphere on the present-day thermal field and the overall rheological characteristics of the lithosphere to better understand variable expressions in the formation of passive continental margins and the behavior of strike-slip fault zones. The main methodological approach chosen is to estimate the present-day thermal field and the strength of the lithosphere by 3-D numerical modeling. The distribution of rock properties is provided by 3-D structural models, which are used as the basis for the thermal and rheological modeling. The structural models are based on geophysical and geological data integration, additionally constrained by 3-D density modeling. More specifically, to decipher the thermal and rheological characteristics of the lithosphere in both oceanic and continental domains, sedimentary basins in the Sea of Marmara (continental transform setting), the SW African passive margin (old oceanic crust), and the Norwegian passive margin (young oceanic crust) were selected for this study.
The Sea of Marmara, in northwestern Turkey, is located where the dextral North Anatolian Fault zone (NAFZ) accommodates the westward escape of the Anatolian Plate toward the Aegean. Geophysical observations indicate that the crust is heterogeneous beneath the Marmara basin, but a detailed characterization of the lateral crustal heterogeneities is presented for the first time in this study. Here, I use different gravity datasets and the general non-uniqueness in potential field modeling, to propose three possible end-member scenarios of crustal configuration. The models suggest that pronounced gravitational anomalies in the basin originate from significant density heterogeneities within the crust. The rheological modeling reveals that associated variations in lithospheric strength control the mechanical segmentation of the NAFZ. Importantly, a strong crust that is mechanically coupled to the upper mantle spatially correlates with aseismic patches where the fault bends and changes its strike in response to the presence of high-density lower crustal bodies. Between the bends, mechanically weaker crustal domains that are decoupled from the mantle are characterized by creep.
For the passive margins of SW Africa and Norway, two previously published 3-D conductive and lithospheric-scale thermal models were analyzed. These 3-D models differentiate various sedimentary, crustal, and mantle units and integrate different geophysical data, such as seismic observations and the gravity field. Here, the rheological modeling suggests that the present-day lithospheric strength across the oceanic domain is ultimately affected by the age and past thermal and tectonic processes as well as the depth of the thermal lithosphere-asthenosphere boundary, while the configuration of the crystalline crust dominantly controls the rheological behavior of the lithosphere beneath the continental domains of both passive margins.
The thermal and rheological models show that the variations of lithospheric strength are fundamentally influenced by the temperature distribution within the lithosphere. Moreover, as the composition of the lithosphere significantly influences the present-day thermal field, it therefore also affects the rheological characteristics of the lithosphere. Overall my studies add to our understanding of regional tectonic deformation processes and the long-term behavior of sedimentary basins; they confirm other analyses that have pointed out that crustal heterogeneities in the continents result in diverse lithospheric thermal characteristics, which in turn results in higher complexity and variations of rheological behavior compared to oceanic domains with a thinner, more homogeneous crust.
Variationen der stratosphärischen Residualzirkulation und ihr Einfluss auf die Ozonverteilung
(2006)
Die Residualzirkulation entspricht der mittleren Massenzirkulation und beschreibt die im zonalen Mittel stattfindenden meridionalen Transportprozesse. Die Variationen der Residualzirkulation bestimmen gemeinsam mit dem anthropogen verursachten Ozonabbau die jährlichen Schwankungen der Ozongesamtsäule im arktischen Frühling. In der vorliegenden Arbeit wird die Geschwindigkeit des arktischen Astes der Residualzirkulation aus atmosphärischen Daten gewonnen. Zu diesem Zweck wird das diabatische Absinken im Polarwirbel mit Hilfe von Trajektorienrechnungen bestimmt. Die vertikalen Bewegungen der Luftpakete können mit vertikalen Windfeldern oder entsprechend einem neuen Ansatz mit diabatischen Heizraten angetrieben werden. Die Eingabedaten stammen aus dem 45 Jahre langen Reanalyse-Datensatz des "European Centre for Medium Range Weather Forecast" (ECMWF). Außerdem kann für die Jahre ab 1984 die operationelle ECMWF-Analyse verwendet werden. Die Qualität und Robustheit der Heizraten- und Trajektorienrechnungen werden durch Sensitivitätsstudien und Vergleiche mit anderen Modellen untermauert. Anschließend werden umfangreiche Trajektorienensemble statistisch ausgewertet, um ein detailliertes, zeit- und höhenaufgelöstes Bild des diabatischen Absinkens zu ermitteln. In diesem Zusammenhang werden zwei Methoden entwickelt, um das Absinken gemittelt im Polarwirbel oder als Funktion der äquivalenten Breite zu bestimmen. Es wird gezeigt, dass es notwendig ist den Lagrangeschen auf Trajektorienrechnungen basierenden Ansatz zu verfolgen, da die einfachen Eulerschen Mittel Abweichungen zu den Lagrangeschen Vertikalgeschwindigkeiten aufweisen. Das wirbelgemittelte Absinken wird für einzelne Winter mit dem beobachteten Absinken langlebiger Spurengase und anderen Modellstudien verglichen. Der Vergleich zeigt, dass das Absinken basierend auf den vertikalen Windfeldern der ECMWF-Datensätze den Nettoluftmassentransport durch die Residualzirkulation sehr stark überschätzt. Der neue Ansatz basierend auf den Heizraten ergibt hingegen realistische Ergebnisse und wird aus diesem Grund für alle Rechnungen verwendet. Es wird erstmalig eine Klimatologie des diabatischen Absinkens über einen fast fünf Jahrzehnte umfassenden Zeitraum erstellt. Die Klimatologie beinhaltet das vertikal und zeitlich aufgelöste diabatische Absinken gemittelt über den gesamten Polarwirbel und Informationen über die räumliche Struktur des vertikalen Absinkens. Die natürliche Jahr-zu-Jahr Variabilität des diabatischen Absinkens ist sehr stark ausgeprägt. Es wird gezeigt, dass zwischen der ECMWF-Zeitreihe des diabatischen Absinkens und der Zeitreihe aus einem unabhängig analysierten Temperaturdatensatz hohe Korrelationen bestehen. Erstmals wird der Einfluss von Transportprozessen auf die Ozongesamtsäule im arktischen Frühling direkt quantifiziert. Es wird gezeigt, dass die Jahr-zu-Jahr Variabilität der Ozongesamtsäule im arktischen Frühling zu gleichen Anteilen durch die Variabilität der dynamischen Komponente und durch die Variabilität der chemischen Komponente beeinflusst wird. Die gefundenen Variabilitäten von diabatischem Absinken und Ozoneintrag in hohen Breiten werden mit der vertikalen Ausbreitung planetarer Wellen aus der Troposphäre in die Stratosphäre in Beziehung gesetzt.
In this thesis, we discuss the formulation of variational problems on supermanifolds. Supermanifolds incorporate bosonic as well as fermionic degrees of freedom. Fermionic fields take values in the odd part of an appropriate Grassmann algebra and are thus showing an anticommutative behaviour. However, a systematic treatment of these Grassmann parameters requires a description of spaces as functors, e.g. from the category of Grassmann algberas into the category of sets (or topological spaces, manifolds). After an introduction to the general ideas of this approach, we use it to give a description of the resulting supermanifolds of fields/maps. We show that each map is uniquely characterized by a family of differential operators of appropriate order. Moreover, we demonstrate that each of this maps is uniquely characterized by its component fields, i.e. by the coefficients in a Taylor expansion w.r.t. the odd coordinates. In general, the component fields are only locally defined. We present a way how to circumvent this limitation. In fact, by enlarging the supermanifold in question, we show that it is possible to work with globally defined components. We eventually use this formalism to study variational problems. More precisely, we study a super version of the geodesic and a generalization of harmonic maps to supermanifolds. Equations of motion are derived from an energy functional and we show how to decompose them into components. Finally, in special cases, we can prove the existence of critical points by reducing the problem to equations from ordinary geometric analysis. After solving these component equations, it is possible to show that their solutions give rise to critical points in the functor spaces of fields.
Most machine learning methods provide only point estimates when being queried to predict on new data. This is problematic when the data is corrupted by noise, e.g. from imperfect measurements, or when the queried data point is very different to the data that the machine learning model has been trained with. Probabilistic modelling in machine learning naturally equips predictions with corresponding uncertainty estimates which allows a practitioner to incorporate information about measurement noise into the modelling process and to know when not to trust the predictions. A well-understood, flexible probabilistic framework is provided by Gaussian processes that are ideal as building blocks of probabilistic models. They lend themself naturally to the problem of regression, i.e., being given a set of inputs and corresponding observations and then predicting likely observations for new unseen inputs, and can also be adapted to many more machine learning tasks. However, exactly inferring the optimal parameters of such a Gaussian process model (in a computationally tractable manner) is only possible for regression tasks in small data regimes. Otherwise, approximate inference methods are needed, the most prominent of which is variational inference.
In this dissertation we study models that are composed of Gaussian processes embedded in other models in order to make those more flexible and/or probabilistic. The first example are deep Gaussian processes which can be thought of as a small network of Gaussian processes and which can be employed for flexible regression. The second model class that we study are Gaussian process state-space models. These can be used for time-series modelling, i.e., the task of being given a stream of data ordered by time and then predicting future observations. For both model classes the state-of-the-art approaches offer a trade-off between expressive models and computational properties (e.g. speed or convergence properties) and mostly employ variational inference. Our goal is to improve inference in both models by first getting a deep understanding of the existing methods and then, based on this, to design better inference methods. We achieve this by either exploring the existing trade-offs or by providing general improvements applicable to multiple methods.
We first provide an extensive background, introducing Gaussian processes and their sparse (approximate and efficient) variants. We continue with a description of the models under consideration in this thesis, deep Gaussian processes and Gaussian process state-space models, including detailed derivations and a theoretical comparison of existing methods.
Then we start analysing deep Gaussian processes more closely: Trading off the properties (good optimisation versus expressivity) of state-of-the-art methods in this field, we propose a new variational inference based approach. We then demonstrate experimentally that our new algorithm leads to better calibrated uncertainty estimates than existing methods.
Next, we turn our attention to Gaussian process state-space models, where we closely analyse the theoretical properties of existing methods.The understanding gained in this process leads us to propose a new inference scheme for general Gaussian process state-space models that incorporates effects on multiple time scales. This method is more efficient than previous approaches for long timeseries and outperforms its comparison partners on data sets in which effects on multiple time scales (fast and slowly varying dynamics) are present.
Finally, we propose a new inference approach for Gaussian process state-space models that trades off the properties of state-of-the-art methods in this field. By combining variational inference with another approximate inference method, the Laplace approximation, we design an efficient algorithm that outperforms its comparison partners since it achieves better calibrated uncertainties.
This thesis explores the variation in coreference patterns across language modes (i.e., spoken and written) and text genres. The significance of research on variation in language use has been emphasized in a number of linguistic studies. For instance, Biber and Conrad [2009] state that “register/genre variation is a fundamental aspect of human language” and “Given the ubiquity of register/genre variation, an understanding of how linguistic features are used in patterned ways across text varieties is of central importance for both the description of particular languages and the development of cross-linguistic theories of language use.”[p.23]
We examine the variation across genres with the primary goal of contributing to the body of knowledge on the description of language use in English. On the computational side, we believe that incorporating linguistic knowledge into learning-based systems can boost the performance of automatic natural language processing systems, particularly for non-standard texts. Therefore, in addition to their descriptive value, the linguistic findings we provide in this study may prove to be helpful for improving the performance of automatic coreference resolution, which is essential for a good text understanding and beneficial for several downstream NLP applications, including machine translation and text summarization.
In particular, we study a genre of texts that is formed of conversational interactions on the well-known social media platform Twitter. Two factors motivate us: First, Twitter conversations are realized in written form but resemble spoken communication [Scheffler, 2017], and therefore they form an atypical genre for the written mode. Second, while Twitter texts are a complicated genre for automatic coreference resolution, due to their widespread use in the digital sphere, at the same time they are highly relevant for applications that seek to extract information or sentiments from users’ messages. Thus, we are interested in discovering more about the linguistic and computational aspects of coreference in Twitter conversations. We first created a corpus of such conversations for this purpose and annotated it for coreference. We are interested in not only the coreference patterns but the overall discourse behavior of Twitter conversations. To address this, in addition to the coreference relations, we also annotated the coherence relations on the corpus we compiled. The corpus is available online in a newly developed form that allows for separating the tweets from their annotations.
This study consists of three empirical analyses where we independently apply corpus-based, psycholinguistic and computational approaches for the investigation of variation in coreference patterns in a complementary manner. (1) We first make a descriptive analysis of variation across genres through a corpus-based study. We investigate the linguistic aspects of nominal coreference in Twitter conversations and we determine how this genre relates to other text genres in spoken and written modes. In addition to the variation across genres, studying the differences in spoken-written modes is also in focus of linguistic research since from Woolbert [1922]. (2) In order to investigate whether the language mode alone has any effect on coreference patterns, we carry out a crowdsourced experiment and analyze the patterns in the same genre for both spoken and written modes. (3) Finally, we explore the potentials of domain adaptation of automatic coreference resolution (ACR) for the conversational Twitter data. In order to answer the question of how the genre of Twitter conversations relates to other genres in spoken and written modes with respect to coreference patterns, we employ a state-of-the-art neural ACR model [Lee et al., 2018] to examine whether ACR on Twitter conversations will benefit from mode-based separation in out-of-domain training data.
Der Buchfinkengesang wurde in Potsdam in zwei Hauptpopulationen über drei Jahre aufgenommen. Jedes Individuum wurde eindeutig am individuellen Strophentypenrepertoire identifiziert. Ein weiterer Punkt der die individuelle Wiedererkennung bestätigt ist die hohe Standorttreue der adulten Männchen. Die beschriebene Methode eignet sich für die Untersuchung von gesamten Populationen, um den Wandel des Gesangs von Populationen in Raum und Zeit zu beschreiben. Die Haupterkenntnisse der Arbeit sind: - Die Gesamtanzahl der Grundstrophentypen innerhalb einer Population bleibt über Jahre konstant. - Die relative Häufigkeit jedes einzelnen Strophentyps variiert von Jahr zu Jahr und von Population zu Population. - Gesangslernen erfolgt exakt mit einem Korrektheitsgrad von mindestens 96%. - Das Song-Sharing ist innerhalb der Population hoch. Die diskutierten Mechanismen für das Song-Sharing sind: Die Lebenserwartung, das Zugverhalten, das Lernverhalten, die Etabliertheit von Strophentypen, Weibchenpräferenzen und die Reaktionen der territorialen Männchen. - Weiterhin wurde ein Modell zur kulturellen Evolution des Buchfinkengesangs programmiert, um die Rolle der Einflussfaktoren, wie Fehlerquote, Abwanderungsrate und Laufzeit zu ermitteln. Der Wandel des Dialektes erfolgt graduell in Raum und Zeit. Daher sind keine scharfen Dialektgrenzen anzutreffen. Trotz dieser Tatsache markieren die etablierten Strophentypen die Population. 50 % der Juvenilen siedeln am Geburtsort, auf diese Weise bleibt der Dialekt erhalten und Inzest wird vermieden. -Analysiert man das Repertoire benachbarten Männchen bei isolierten Alleen, so entspricht die Gesangsangleichung in etwa dem Zufall. -Intraindividuelle Vergleiche der quantitativen Parameter des jeweiligen Strophentyps wurden saisonal und annuell durchgeführt. Saisonal konnten für einen Strophentyp ein Trend ermittelt werden. Bei jährlichen Vergleichen konnten intraindividuell ausschließlich nicht signifikante Ergebnisse ermittelt werden, wohingegen die interindividuelle Variation in zwei Fällen signifikant war. In einem Fall bestand ein Trend und in einem weiteren Fall war die Variationsunterschiede nicht signifikant. - Der Verlauf der Brutsaison lässt sich an der jährlichen Gesangsaktivität nachvollziehen.
Individuals with aphasia vary in the speed and accuracy they perform sentence comprehension tasks. Previous results indicate that the performance patterns of individuals with aphasia vary between tasks (e.g., Caplan, DeDe, & Michaud, 2006; Caplan, Michaud, & Hufford, 2013a). Similarly, it has been found that the comprehension performance of individuals with aphasia varies between homogeneous test sentences within and between sessions (e.g., McNeil, Hageman, & Matthews, 2005). These studies ascribed the variability in the performance of individuals with aphasia to random noise. This conclusion would be in line with an influential theory on sentence comprehension in aphasia, the resource reduction hypothesis (Caplan, 2012). However, previous studies did not directly compare variability in language-impaired and language-unimpaired adults. Thus, it is still unclear how the variability in sentence comprehension differs between individuals with and without aphasia. Furthermore, the previous studies were exclusively carried out in English. Therefore, the findings on variability in sentence processing in English still need to be replicated in a different language.
This dissertation aims to give a systematic overview of the patterns of variability in sentence comprehension performance in aphasia in German and, based on this overview, to put the resource reduction hypothesis to the test. In order to reach the first aim, variability was considered on three different dimensions (persons, measures, and occasions) following the classification by Hultsch, Strauss, Hunter, and MacDonald (2011). At the dimension of persons, the thesis compared the performance of individuals with aphasia and language-unimpaired adults. At the dimension of measures, this work explored the performance across different sentence comprehension tasks (object manipulation, sentence-picture matching). Finally, at the dimension of occasions, this work compared the performance in each task between two test sessions. Several methods were combined to study variability to gain a large and diverse database. In addition to the offline comprehension tasks, the self-paced-listening paradigm and the visual world eye-tracking paradigm were used in this work.
The findings are in line with the previous results. As in the previous studies, variability in sentence comprehension in individuals with aphasia emerged between test sessions and between tasks. Additionally, it was possible to characterize the variability further using hierarchical Bayesian models. For individuals with aphasia, it was shown that both between-task and between-session variability are unsystematic. In contrast to that, language-unimpaired individuals exhibited systematic differences between measures and between sessions. However, these systematic differences occurred only in the offline tasks. Hence, variability in sentence comprehension differed between language-impaired and language-unimpaired adults, and this difference could be narrowed down to the offline measures.
Based on this overview of the patterns of variability, the resource reduction hypothesis was evaluated. According to the hypothesis, the variability in the performance of individuals with aphasia can be ascribed to random fluctuations in the resources available for sentence processing. Given that the performance of the individuals with aphasia varied unsystematically, the results support the resource reduction hypothesis. Furthermore, the thesis proposes that the differences in variability between language-impaired and language-unimpaired adults can also be explained by the resource reduction hypothesis. More specifically, it is suggested that the systematic changes in the performance of language-unimpaired adults are due to decreasing fluctuations in available processing resources. In parallel, the unsystematic variability in the performance of individuals with aphasia could be due to constant fluctuations in available processing resources. In conclusion, the systematic investigation of variability contributes to a better understanding of language processing in aphasia and thus enriches aphasia research.
Value education of youth
(2002)
The value priorities of students and teachers were measured at eight different schools at the beginning and the end of the school year 2000/2001. This study once again confirmed the theoretical model of a universal structure of human values (Schwartz, 1992). At both measurement times, similar gender differences, as well as positive correlations between religiosity and school commitment were found. The students from the non-religious schools determined Hedonism as their highest, and Tradition as their lowest value priority. In the religious schools, Benevolence and Self-Direction were the highest values, whereas Power was found to be the lowest value priority. The change of the values Conformity, Hedonism, and Universalism was predicted both through the students′ religiosity and their type of school. The change of the values Power, Tradition, Benevolence, and Achievement, however, was mainly predicted through their religiosity. In three out of four schools the student-teacher similarity correlated positively with the school commitment of the students. Across all schools student-teacher similarity correlated positively with academic achievement.
Utilization of sunlight for energy harvesting has been foreseen as sustainable replacement for fossil fuels, which would also eliminate side effects arising from fossil fuel consumption such as drastic increase of CO2 in Earth atmosphere. Semiconductor materials can be implemented for energy harvesting, and design of ideal energy harvesting devices relies on effective semiconductor with low recombination rate, ease of processing, stability over long period, non-toxicity and synthesis from abundant sources. Aforementioned criteria have attracted broad interest for graphitic carbon nitride (g-CN) materials, metal-free semiconductor which can be synthesized from low cost and abundant precursors. Furthermore, physical properties such as band gap, surface area and absorption can be tuned. g-CN was investigated as heterogeneous catalyst, with diversified applications from water splitting to CO2 reduction and organic coupling reactions. However, low dispersibility of g-CN in water and organic solvents was an obstacle for future improvements.
Tissue engineering aims to mimic natural tissues mechanically and biologically, so that synthetic materials can replace natural ones in future. Hydrogels are crosslinked networks with high water content, therefore are prime candidates for tissue engineering. However, the first requirement is synthesis of hydrogels with mechanical properties that are matching to natural tissues. Among different approaches for reinforcement, nanocomposite reinforcement is highly promising.
This thesis aims to investigate aqueous and organic dispersions of g-CN materials. Aqueous g-CN dispersions were utilized for visible light induced hydrogel synthesis, where g-CN acts as reinforcer and photoinitiator. Varieties of methodologies were presented for enhancing g-CN dispersibility, from co-solvent method to prepolymer formation, and it was shown that hydrogels with diversified mechanical properties (from skin-like to cartilage-like) are accessible via g-CN utilization. One pot photografting method was introduced for functionalization of g-CN surface which provides functional groups towards enhanced dispersibility in aqueous and organic media. Grafting vinyl thiazole groups yields stable additive-free organodispersions of g-CN which are electrostatically stabilized with increased photophysical properties. Colloidal stability of organic systems provides transparent g-CN coatings and printing g-CN from commercial inkjet printers.
Overall, application of g-CN in dispersed media is highly promising, and variety of materials can be accessible via utilization of g-CN and visible light with simple chemicals and synthetic conditions. g-CN in dispersed media will bridge emerging research areas from tissue engineering to energy harvesting in near future.
The International Project for the Evaluation of Educational Achievement (IEA) was formed in the 1950s (Postlethwaite, 1967). Since that time, the IEA has conducted many studies in the area of mathematics, such as the First International Mathematics Study (FIMS) in 1964, the Second International Mathematics Study (SIMS) in 1980-1982, and a series of studies beginning with the Third International Mathematics and Science Study (TIMSS) which has been conducted every 4 years since 1995. According to Stigler et al. (1999), in the FIMS and the SIMS, U.S. students achieved low scores in comparison with students in other countries (p. 1). The TIMSS 1995 “Videotape Classroom Study” was therefore a complement to the earlier studies conducted to learn “more about the instructional and cultural processes that are associated with achievement” (Stigler et al., 1999, p. 1). The TIMSS Videotape Classroom Study is known today as the TIMSS Video Study. From the findings of the TIMSS 1995 Video Study, Stigler and Hiebert (1999) likened teaching to “mountain ranges poking above the surface of the water,” whereby they implied that we might see the mountaintops, but we do not see the hidden parts underneath these mountain ranges (pp. 73-78). By watching the videotaped lessons from Germany, Japan, and the United States again and again, they discovered that “the systems of teaching within each country look similar from lesson to lesson. At least, there are certain recurring features [or patterns] that typify many of the lessons within a country and distinguish the lessons among countries” (pp. 77-78). They also discovered that “teaching is a cultural activity,” so the systems of teaching “must be understood in relation to the cultural beliefs and assumptions that surround them” (pp. 85, 88). From this viewpoint, one of the purposes of this dissertation was to study some cultural aspects of mathematics teaching and relate the results to mathematics teaching and learning in Vietnam. Another research purpose was to carry out a video study in Vietnam to find out the characteristics of Vietnamese mathematics teaching and compare these characteristics with those of other countries. In particular, this dissertation carried out the following research tasks: - Studying the characteristics of teaching and learning in different cultures and relating the results to mathematics teaching and learning in Vietnam - Introducing the TIMSS, the TIMSS Video Study and the advantages of using video study in investigating mathematics teaching and learning - Carrying out the video study in Vietnam to identify the image, scripts and patterns, and the lesson signature of eighth-grade mathematics teaching in Vietnam - Comparing some aspects of mathematics teaching in Vietnam and other countries and identifying the similarities and differences across countries - Studying the demands and challenges of innovating mathematics teaching methods in Vietnam – lessons from the video studies Hopefully, this dissertation will be a useful reference material for pre-service teachers at education universities to understand the nature of teaching and develop their teaching career.
Accurate weather observations are the keystone to many quantitative applications, such as precipitation monitoring and nowcasting, hydrological modelling and forecasting, climate studies, as well as understanding precipitation-driven natural hazards (i.e. floods, landslides, debris flow). Weather radars have been an increasingly popular tool since the 1940s to provide high spatial and temporal resolution precipitation data at the mesoscale, bridging the gap between synoptic and point scale observations. Yet, many institutions still struggle to tap the potential of the large archives of reflectivity, as there is still much to understand about factors that contribute to measurement errors, one of which is calibration. Calibration represents a substantial source of uncertainty in quantitative precipitation estimation (QPE). A miscalibration of a few dBZ can easily deteriorate the accuracy of precipitation estimates by an order of magnitude. Instances where rain cells carrying torrential rains are misidentified by the radar as moderate rain could mean the difference between a timely warning and a devastating flood.
Since 2012, the Philippine Atmospheric, Geophysical, and Astronomical Services Administration (PAGASA) has been expanding the country’s ground radar network. We had a first look into the dataset from one of the longest running radars (the Subic radar) after devastating week-long torrential rains and thunderstorms in August 2012 caused by the annual southwestmonsoon and enhanced by the north-passing Typhoon Haikui. The analysis of the rainfall spatial distribution revealed the added value of radar-based QPE in comparison to interpolated rain gauge observations. However, when compared with local gauge measurements, severe miscalibration of the Subic radar was found. As a consequence, the radar-based QPE would have underestimated the rainfall amount by up to 60% if they had not been adjusted by rain gauge observations—a technique that is not only affected by other uncertainties, but which is also not feasible in other regions of the country with very sparse rain gauge coverage.
Relative calibration techniques, or the assessment of bias from the reflectivity of two radars, has been steadily gaining popularity. Previous studies have demonstrated that reflectivity observations from the Tropical Rainfall Measuring Mission (TRMM) and its successor, the Global Precipitation Measurement (GPM), are accurate enough to serve as a calibration reference for ground radars over low-to-mid-latitudes (± 35 deg for TRMM; ± 65 deg for GPM). Comparing spaceborne radars (SR) and ground radars (GR) requires cautious consideration of differences in measurement geometry and instrument specifications, as well as temporal coincidence. For this purpose, we implement a 3-D volume matching method developed by Schwaller and Morris (2011) and extended by Warren et al. (2018) to 5 years worth of observations from the Subic radar. In this method, only the volumetric intersections of the SR and GR beams are considered.
Calibration bias affects reflectivity observations homogeneously across the entire radar domain. Yet, other sources of systematic measurement errors are highly heterogeneous in space, and can either enhance or balance the bias introduced by miscalibration. In order to account for such heterogeneous errors, and thus isolate the calibration bias, we assign a quality index to each matching SR–GR volume, and thus compute the GR calibration bias as a qualityweighted average of reflectivity differences in any sample of matching SR–GR volumes. We exemplify the idea of quality-weighted averaging by using beam blockage fraction (BBF) as a quality variable. Quality-weighted averaging is able to increase the consistency of SR and GR observations by decreasing the standard deviation of the SR–GR differences, and thus increasing the precision of the bias estimates.
To extend this framework further, the SR–GR quality-weighted bias estimation is applied to the neighboring Tagaytay radar, but this time focusing on path-integrated attenuation (PIA) as the source of uncertainty. Tagaytay is a C-band radar operating at a lower wavelength and is therefore more affected by attenuation. Applying the same method used for the Subic radar, a time series of calibration bias is also established for the Tagaytay radar.
Tagaytay radar sits at a higher altitude than the Subic radar and is surrounded by a gentler terrain, so beam blockage is negligible, especially in the overlapping region. Conversely, Subic radar is largely affected by beam blockage in the overlapping region, but being an SBand radar, attenuation is considered negligible. This coincidentally independent uncertainty contributions of each radar in the region of overlap provides an ideal environment to experiment with the different scenarios of quality filtering when comparing reflectivities from the two ground radars. The standard deviation of the GR–GR differences already decreases if we consider either BBF or PIA to compute the quality index and thus the weights. However, combining them multiplicatively resulted in the largest decrease in standard deviation, suggesting that taking both factors into account increases the consistency between the matched samples.
The overlap between the two radars and the instances of the SR passing over the two radars at the same time allows for verification of the SR–GR quality-weighted bias estimation method. In this regard, the consistency between the two ground radars is analyzed before and after bias correction is applied. For cases when all three radars are coincident during a significant rainfall event, the correction of GR reflectivities with calibration bias estimates from SR overpasses dramatically improves the consistency between the two ground radars which have shown incoherent observations before correction. We also show that for cases where adequate SR coverage is unavailable, interpolating the calibration biases using a moving average can be used to correct the GR observations for any point in time to some extent. By using the interpolated biases to correct GR observations, we demonstrate that bias correction reduces the absolute value of the mean difference in most cases, and therefore improves the consistency between the two ground radars.
This thesis demonstrates that in general, taking into account systematic sources of uncertainty that are heterogeneous in space (e.g. BBF) and time (e.g. PIA) allows for a more consistent estimation of calibration bias, a homogeneous quantity. The bias still exhibits an unexpected variability in time, which hints that there are still other sources of errors that remain unexplored. Nevertheless, the increase in consistency between SR and GR as well as between the two ground radars, suggests that considering BBF and PIA in a weighted-averaging approach is a step in the right direction.
Despite the ample room for improvement, the approach that combines volume matching between radars (either SR–GR or GR–GR) and quality-weighted comparison is readily available for application or further scrutiny. As a step towards reproducibility and transparency in atmospheric science, the 3D matching procedure and the analysis workflows as well as sample data are made available in public repositories. Open-source software such as Python and wradlib are used for all radar data processing in this thesis. This approach towards open science provides both research institutions and weather services with a valuable tool that can be applied to radar calibration, from monitoring to a posteriori correction of archived data.
Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality.
In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations.
With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments.
To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results.
As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research.
Using individual-based modeling to understand grassland diversity and resilience in the Anthropocene
(2020)
The world’s grassland systems are increasingly threatened by anthropogenic change. Susceptible to a variety of different stressors, from land-use intensification to climate change, understanding the mechanisms driving the maintenance of these systems’ biodiversity and stability, and how these mechanisms may shift under human-mediated disturbance, is thus critical for successfully navigating the next century. Within this dissertation, I use an individual-based and spatially-explicit model of grassland community assembly (IBC-grass) to examine several processes, thought key to understanding their biodiversity and stability and how it changes under stress. In the first chapter of my thesis, I examine the conditions under which intraspecific trait variation influences the diversity of simulated grassland communities. In the second and third chapters of my thesis, I shift focus towards understanding how belowground herbivores influence the stability of these grassland systems to either a disturbance that results in increased, stochastic, plant mortality, or eutrophication.
Intraspecific trait variation (ITV), or variation in trait values between individuals of the same species, is fundamental to the structure of ecological communities. However, because it has historically been difficult to incorporate into theoretical and statistical models, it has remained largely overlooked in community-level analyses. This reality is quickly shifting, however, as a consensus of research suggests that it may compose a sizeable proportion of the total variation within an ecological community and that it may play a critical role in determining if species coexist. Despite this increasing awareness that ITV matters, there is little consensus of the magnitude and direction of its influence. Therefore, to better understand how ITV changes the assembly of grassland communities, in the first chapter of my thesis, I incorporate it into an established, individual-based grassland community model, simulating both pairwise invasion experiments as well as the assembly of communities with varying initial diversities. By varying the amount of ITV in these species’ functional traits, I examine the magnitude and direction of ITV’s influence on pairwise invasibility and community coexistence. During pairwise invasion, ITV enables the weakest species to more frequently invade the competitively superior species, however, this influence does not generally scale to the community level. Indeed, unless the community has low alpha- and beta- diversity, there will be little effect of ITV in bolstering diversity. In these situations, since the trait axis is sparsely filled, the competitively inferior may suffer less competition and therefore ITV may buffer the persistence and abundance of these species for some time.
In the second and third chapters of my thesis, I model how one of the most ubiquitous trophic interactions within grasslands, herbivory belowground, influences their diversity and stability. Until recently, the fundamental difficulty in studying a process within the soil has left belowground herbivory “out of sight, out of mind.” This dilemma presents an opportunity for simulation models to explore how this understudied process may alter community dynamics. In the second chapter of my thesis, I implement belowground herbivory – represented by the weekly removal of plant biomass – into IBC-grass. Then, by introducing a pulse disturbance, modelled as the stochastic mortality of some percentage of the plant community, I observe how the presence of belowground herbivores influences the resistance and recovery of Shannon diversity in these communities. I find that high resource, low diversity, communities are significantly more destabilized by the presence of belowground herbivores after disturbance. Depending on the timing of the disturbance and whether the grassland’s seed bank persists for more than one season, the impact of the disturbance – and subsequently the influence of the herbivores – can be greatly reduced. However, because human-mediated eutrophication increases the amount of resources in the soil, thus pressuring grassland systems, our results suggest that the influence of these herbivores may become more important over time.
In the third chapter of my thesis, I delve further into understanding the mechanistic underpinnings of belowground herbivores on the diversity of grasslands by replicating an empirical mesocosm experiment that crosses the presence of herbivores above- and below-ground with eutrophication. I show that while aboveground herbivory, as predicted by theory and frequently observed in experiments, mitigates the impact of eutrophication on species diversity, belowground herbivores counterintuitively reduce biodiversity. Indeed, this influence positively interacts with the eutrophication process, amplifying its negative impact on diversity. I discovered the mechanism underlying this surprising pattern to be that, as the herbivores consume roots, they increase the proportion of root resources to root biomass. Because root competition is often symmetric, herbivory fails to mitigate any asymmetries in the plants’ competitive dynamics. However, since the remaining roots have more abundant access to resources, the plants’ competition shifts aboveground, towards asymmetric competition for light. This leads the community towards a low-diversity state, composed of mostly high-performance, large plant species. We further argue that this pattern will emerge unless the plants’ root competition is asymmetric, in which case, like its counterpart aboveground, belowground herbivory may buffer diversity by reducing this asymmetry between the competitively superior and inferior plants.
I conclude my dissertation by discussing the implications of my research on the state of the art in intraspecific trait variation and belowground herbivory, with emphasis on the necessity of more diverse theory development in the study of these fundamental interactions. My results suggest that the influence of these processes on the biodiversity and stability of grassland systems is underappreciated and multidimensional, and must be thoroughly explored if researchers wish to predict how the world’s grasslands will respond to anthropogenic change. Further, should researchers myopically focus on understanding central ecological interactions through only mathematically tractable analyses, they may miss entire suites of potential coexistence mechanisms that can increase the coviability of species, potentially leading to coexistence over ecologically-significant timespans. Individual-based modelling, therefore, with its focus on individual interactions, will prove a critical tool in the coming decades for understanding how local interactions scale to larger contexts, and how these interactions shape ecological communities and further predicting how these systems will change under human-mediated stress.
To grant high-quality evidence-based research in the field of exercise sciences, it is often necessary for various institutions to collaborate over longer distances and internationally. Here, not only with regard to the recent COVID-19-pandemic, digital means provide new options for remote scientific exchanges. This thesis is meant to analyse and test digital opportunities to support the dissemination of knowledge and instruction of investigators about defined examination protocols in an international multi-center context.
The project consisted of three studies. The first study, a questionnaire-based survey, aimed at learning about the opinions and preferences of digital learning or social media among students of sport science faculties in two universities each in Germany, the UK and Italy. Based on these findings, in a second study, an examination video of an ultrasound determination of the intima-media-thickness and diameter of an artery was distributed by a messenger app to doctors and nursing personnel as simulated investigators and efficacy of the test setting was analysed. Finally, a third study integrated the use of an augmented reality device for direct remote supervision of the same ultrasound examinations in a long-distance international setting with international experts from the fields of engineering and sports science and later remote supervision of augmented reality equipped physicians performing a given task.
The first study with 229 participating students revealed a high preference for YouTube to receive video-based knowledge as well as a preference for using WhatsApp and Facebook for peer-to-peer contacts for learning purposes and to exchange and discuss knowledge. In the second study, video-based instructions send by WhatsApp messenger
showed high approval of the setup in both study groups, one with doctors familiar with the use of ultrasound technology as well as one with nursing staff who were not familiar with the device, with similar results in overall time of performance and the measurements of the femoral arteries. In the third and final study, experts from different continents were connected remotely to the examination site via an augmented reality device with good transmission quality. The remote supervision to doctors ́ examination produced a good interrater correlation. Experiences with the augmented reality-based setting were rated as highly positive by the participants. Potential benefits of this technique were seen in the fields of education, movement analysis, and supervision.
Concluding, the findings of this thesis were able to suggest modern and addressee- centred digital solutions to enhance the understanding of given examinations techniques of potential investigators in exercise science research projects. Head-mounted augmented reality devices have a special value and may be recommended for collaborative research projects with physical examination–based research questions. While the established setting should be further investigated in prospective clinical studies, digital competencies of future researchers should already be enhanced during the early stages of their education.
Der Fettsäurestoffwechsel unterliegt vielfältigen Kontrollmechanismen. So wird der Fettsäureabbau über die Induktion und Aktivität spezifischer Enzyme reguliert. Ein zentraler Regulator ist dabei der nukleäre Rezeptor Peroxisomenproliferator-aktivierter-Rezeptor-α (PPARα). PPARα wird durch freie Fettsäuren in der Zelle aktiviert und fördert über die Induktion von Zielgenen den Fettsäuretransport und -abbau sowie die Gluconeogenese und Ketogenese. Der Anstieg an freien Fettsäuren beim Fasten, aber auch im Diabetes aktiviert PPARα. Unabhängig davon wurde in beiden Stoffwechsellagen auch eine erhöhte Expression des nukleären Rezeptors Constitutiver-Androstan-Rezeptor (CAR) und einiger CAR-Zielgene, vorrangig Enzyme des Fremdstoffmetabolismus wie Cytochrom P450 2B (CYP2B), festgestellt. Bei der Adaption an eine Fastensituation scheinen PPARα- und CAR-Signalwege über einen bisher unbekannten Mechanismus miteinander verschaltet zu sein. In der vorliegenden Arbeit sollte der der Verschaltung zugrunde liegende Mechanismus anhand eines Modelsystems, der PPARα-Agonisten-vermittelten Verstärkung der Phenobarbital (PB)-abhängigen Induktion des CAR-Zielgens CYP2B, in vitro untersucht werden. Zudem sollte die physiologische Relevanz einer durch PPARα-Agonisten vermittelten Modulierung der CYP2B-Aktivität in einer Ganztierstudie in vivo belegt werden. Die verwendeten synthetischen PPARα-Agonisten steigerten in primären Hepatozyten der Ratte signifikant die Phenobarbital (PB)-abhängige mRNA- und Protein-Expression sowie die Aktivität von CYP2B. Ohne vorherige PB-Behandlung induzierten PPARα-Agonisten CYP2B nicht. In Gegenwart von PB war die Steigerung der CYP2B-Aktivität durch PPARα-Agonisten dosisabhängig. In einem Luciferase-Reportergenassay wurde gezeigt, dass die Induktion durch PB unter der Kontrolle des CYP2B1-Promotors von einem distalen PBREM (PB-responsive-enhancer-module), an welches CAR binden kann, abhängig war. PPARα-Agonisten steigerten diese PB- und PBREM-abhängige Reportergentranskription und induzierten die CAR-mRNA und CAR-Proteinexpression. Sie aktivierten die Transkription eines Reportergens unter der Kontrolle eines Promotorfragments von bis zu 4,4 kb oberhalb des mutmaßlichen CAR-Transkriptionsstarts. Mit Hilfe von Deletionskonstrukten konnte ein potentielles Peroxisomenproliferator-aktivierter-Rezeptor-responsives Element (PPRE) im CAR-Promotorbereich von -942 bp bis -930 bp identifiziert werden, welches essentiell für die Initiation der Transkription durch PPARα-Agonisten ist. In band shift Experimenten akkumulierte verstärkt Kernprotein mit diesem PPRE. Ein Überschuss an unmarkiertem Wildtyp-CAR-Reportergenvektor, nicht aber an CAR-Reportergenvektor mit PPRE-Deletion, konnte mit dem markierten PPRE um die Bindung von Kernprotein konkurrieren. Nach Chromatin-Immunpräzipitation mit einem PPARα-Antikörper wiederum wurde das betreffende PPRE amplifiziert. Bei in vivo Experimenten an männlichen Ratten resultierte die Behandlung mit PPARα-Agonisten in einer signifikanten Induktion der CAR-mRNA-Expression und signifikant erhöhter PB-abhängiger CYP2B-Aktivität. Die physiologisch Relevanz wurde durch weiterführenden Experimente unterstrichen, in denen gezeigt wurde, dass die Fasten-abhängige Induktion von CAR in PPARα-defizienten Mäusen unterdrückt war. Diese Experimente legen nahe, dass durch PPARα-Agonisten aktiviertes PPARα an das PPRE im CAR-Promotorbereich von -942 bp bis -930 bp bindet und dadurch die CAR-Transkription induziert. Somit kann CAR als PPARα-Zielgen betrachtet werden, was die Schlussfolgerung zulässt, dass die PPARα- und CAR-Signalwege über die direkte Bindung von PPARα an den CAR-Promotor unmittelbar miteinander verknüpft sind. Allerdings ist davon unabhängig eine Aktivierung von CAR, etwa durch PB, für die vermehrte Induktion von CAR-Zielgenen notwendig . Die physiologische Relevanz der PPARα-abhängige CAR-Expression zeigt sich in den Ganztierexperimenten, bei denen die Wirksamkeit der PPARα-Agonisten bestätigt werden konnte. CAR-abhängig induzierte Enzyme sind nicht nur in großem Umfang am Fremdstoffmetabolismus beteiligt, sondern auch am Abbau von Schilddrüsenhormonen und Glucocorticoiden. Sie können damit direkt Einfluss auf den Kohlenhydrat- und Energiestoffwechsel sowie die Regulation der Nahrungsaufnahme nehmen. Über eine PPARα-abhängige Induktion von CAR im Rahmen der Fastenadaption könnten die CAR-Zielgene UDP-Glucuronyltransferase 1A1 und Sulfotransferase N beispielsweise verstärkt Schilddrüsenhormone abbauen und in der Folge den Grundumsatz senken. Der in dieser Arbeit erstmals beschriebene Mechanismus ist dafür von zentraler Bedeutung.
We calculate the additional carbon emissions as a result of the conversion of natural land in a process of urbanisation; and the change of carbon flows by “urbanised” ecosystems, when the atmospheric carbon is exported to the neighboring territories, from 1980 till 2050 for the eight regions of the world. As a scenario we use combined UN and demographic model′s prognoses for regional total and urban population growth. The calculations of urban areas dynamics are based on two models: the regression model and the Gamma-model. The urbanised area is sub-divided on built-up, „green“ (parks, etc.) and informal settlements (favelas) areas. The next step is to calculate the regional and world dynamics of carbon emission and export, and the annual total carbon balance. Both models give similar results with some quantitative differences. In the first model, the world annual emissions attain a maximum of 205 MtC/year between 2020-2030. Emissions will then slowly decrease. The maximum contributions are given by China and the Asia and Pacific regions. In the second model, world annual emissions increase to 1.25 GtC in 2005, beginning to decrease afterwards. If we compare the emission maximum with the annual emission caused by deforestation, 1.36GtC per year, then we can say that the role of urbanised territories (UT) is of a comparable magnitude. Regarding the world annual export of carbon by UT, we observe its monotonous growth by three times, from 24 MtC to 66 MtC in the first model, and from 249 MtC to 505 MtC in the second one. The latter, is therefore comparable to the amount of carbon transported by rivers into the ocean (196-537 MtC). By estimating the total balance we find that urbanisation shifts the total balance towards a “sink” state. The urbanisation is inhibited in the interval 2020-2030, and by 2050 the growth of urbanised areas would almost stop. Hence, the total emission of natural carbon at that stage will stabilise at the level of the 1980s (80 MtC per year). As estimated by the second model, the total balance, being almost constant until 2000, then starts to decrease at an almost constant rate. We can say that by the end of the XXI century, the total carbon balance will be equal to zero, when the exchange flows are fully balanced, and may even be negative, when the system begins to take up carbon from the atmosphere, i.e., becomes a “sink”.
Water is essential to life and thus, an essential resource. However, freshwater resources are limited and their maintenance is crucial. Pollution with chemicals and pathogens through urbanization and a growing population impair the quality of freshwater. Furthermore, water can serve as vector for the transmission of pathogens resulting in water-borne illness.
The Interdisciplinary Research Group III – "Water" of the Leibniz alliance project INFECTIONS‘21 investigated water as a hub for pathogens focusing on Clostridioides difficile and avian influenza A viruses that may be shed into the water. Another aim of this study was to characterize the bacterial communities in a wastewater treatment plant (WWTP) of the capital Berlin, Germany to further assess potential health risks associated with wastewater management practices.
Bacterial communities of WWTP inflow and effluent differed significantly. The proportion of fecal/enteric bacteria was relatively low and OTUs related to potential enteric pathogens were largely removed from inflow to effluent. However, a health risk might exist as an increased relative abundance of potential pathogenic Legionella spp. such as L. lytica was observed. Three Clostridioides difficile isolates from wastewater inflow and an urban bathing lake in Berlin (‗Weisser See‘) were obtained and sequenced. The two isolates from the wastewater did not carry toxin genes, whereas the isolate from the lake was positive for the toxin genes. All three isolates were closely related to human strains. This indicates a potential, but rather sporadic health risk. Avian influenza A viruses were detected in 38.8% of sediment samples by PCR, but virus isolation failed. An experiment with inoculated freshwater and sediment samples showed that virus isolation from sediment requires relatively high virus concentrations and worked much better in Madin-Darby Canine Kidney (MDCK) cell cultures than in embryonated chicken eggs, but low titre of influenza contamination in freshwater samples was sufficient to recover virus.
In conclusion, this work revealed potential health risks coming from bacterial groups with pathogenic potential such as Legionella spp. whose relative abundance is higher in the released effluent than in the inflow of the investigated WWTP. It further indicates that water bodies such as wastewater and lake sediments can serve as reservoir and vector, even for non-typical water-borne or water-transmitted pathogens such as C. difficile.
Humankind and their environment need to be protected from the harmful effects of spent nuclear fuel, and therefore disposal in deep geological formations is favoured worldwide. Suitability of potential host rocks is evaluated, among others, by the retention capacity with respect to radionuclides. Safety assessments are based on the quantification of radionuclide migration lengths with numerical simulations as experiments cannot cover the required temporal (1 Ma) and spatial scales (>100 m).
Aim of the present thesis is to assess the migration of uranium, a geochemically complex radionuclide, in the potential host rock Opalinus Clay. Radionuclide migration in clay formations is governed by diffusion due to their low permeability and retarded by sorption. Both processes highly depend on pore water geochemistry and mineralogy that vary between different facies. Diffusion is quantified with the single-component (SC) approach using one diffusion coefficient for all species and the process-based multi-component (MC) option. With this, each species is assigned its own diffusion coefficient and the interaction with the diffuse double layer is taken into account. Sorption is integrated via a bottom-up approach using mechanistic surface complexation models and cation exchange. Therefore, reactive transport simulations are conducted with the geochemical code PHREEQC to quantify uranium migration, i.e. diffusion and sorption, as a function of mineralogical and geochemical heterogeneities on the host rock scale.
Sorption processes are facies dependent. Migration lengths vary between the Opalinus Clay facies by up to 10 m. Thereby, the geochemistry of the pore water, in particular the partial pressure of carbon dioxide (pCO2), is more decisive for the sorption capacity than the amount of clay minerals. Nevertheless, higher clay mineral quantities compensate geochemical variations. Consequently, sorption processes must be quantified as a function of pore water geochemistry in contact with the mineral assemblage.
Uranium diffusion in the Opalinus Clay is facies independent. Speciation is dominated by aqueous ternary complexes of U(VI) with calcium and carbonate. Differences in the migration lengths between SC and MC diffusion are with +/-5 m negligible. Further, the application of the MC approach highly depends on the quality and availability of the underlying data. Therefore, diffusion processes can be adequately quantified with the SC approach using experimentally determined diffusion coefficients.
The hydrogeological system governs pore water geochemistry within the formation rather than the mineralogy. Diffusive exchange with the adjacent aquifers established geochemical gradients over geological time scales that can enhance migration by up to 25 m. Consequently, uranium sorption processes must be quantified following the identified priority: pCO2 > hydrogeology > mineralogy.
The presented research provides a workflow and orientation for other potential disposal sites with similar pore water geochemistry due to the identified mechanisms and dependencies. With a maximum migration length of 70 m, the retention capacity of the Opalinus Clay with respect to uranium is sufficient to fulfill the German legal minimum requirement of a thickness of at least 100 m.
The limited capacity of working memory forces people to update its contents continuously. Two aspects of the updating process were investigated in the present experimental series. The first series concerned the question if it is possible to update several representations in parallel. Similar results were obtained for the updating of object features as well as for the updating of whole objects, participants were able to update representations in parallel. The second experimental series addressed the question if working memory representations which were replaced in an updating disappear directly or interfere with the new representations. Evidence for the existence of old representations was found under working memory conditions and under conditions exceeding working memory capacity. These results contradict the hypothesis that working memory contents are protected from proactive interference of long-term memory contents.
In the context of an increasing population of aging people and a shift of medical paradigm towards an individualized medicine in health care, nanostructured lanthanides doped sodium yttrium fluoride (NaYF4) represents an exciting class of upconversion nanomaterials (UCNM) which are suitable to bring forward developments in biomedicine and -biodetection. Despite the fact that among various fluoride based upconversion (UC) phosphors lanthanide doped NaYF4 is one of the most studied upconversion nanomaterial, many open questions are still remaining concerning the interplay of the population routes of sensitizer and activator electronic states involved in different luminescence upconversion photophysics as well as the role of phonon coupling. The collective work aims to explore a detailed understanding of the upconversion mechanism in nanoscaled NaYF4 based materials co-doped with several lanthanides, e.g. Yb3+ and Er3+ as the "standard" type upconversion nanoparticles (UCNP) up to advanced UCNP with Gd3+ and Nd3+. Especially the impact of the crystal lattice structure as well as the resulting lattice phonons on the upconversion luminescence was investigated in detail based on different mixtures of cubic and hexagonal NaYF4 nanoscaled crystals. Three synthesis methods, depending on the attempt of the respective central spectroscopic questions, could be accomplished in the following work. NaYF4 based upconversion nanoparticles doped with several combination of lanthanides (Yb3+, Er3+, Gd3+ and Nd3+) were synthesized successfully using a hydrothermal synthesis method under mild conditions as well as a co-precipitation and a high temperature co-precipitation technique. Structural information were gathered by means of X-ray diffraction (XRD), electron microscopy (TEM), dynamic light scattering (DLS), Raman spectroscopy and inductively coupled plasma atomic emission spectrometry (ICP-OES). The results were discussed in detail with relation to the spectroscopic results. A variable spectroscopic setup was developed for multi parameter upconversion luminescence studies at various temperature 4 K to 328 K. Especially, the study of the thermal behavior of upconversion luminescence as well as time resolved area normalized emission spectra were a prerequisite for the detailed understanding of intramolecular deactivation processes, structural changes upon annealing or Gd3+ concentration, and the role of phonon coupling for the upconversion efficiency. Subsequently it became possible to synthesize UCNP with tailored upconversion luminescence properties. In the end, the potential of UCNP for life science application should be enunciated in context of current needs and improvements of a nanomaterial based optical sensors, whereas the "standard" UCNP design was attuned according to the special conditions in the biological matrix. In terms of a better biocompatibility due to a lower impact on biological tissue and higher penetrability for the excitation light. The first step into this direction was to use Nd3+ ions as a new sensitizer in tridoped NaYF4 based UCNP, whereas the achieved absolute and relative temperature sensitivity is comparable to other types of local temperature sensors in the literature.
The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms.
Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization.
In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs).
In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account.
In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources.
In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required.
In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission.
Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs.
Die 11beta-HSD1 reguliert intrazellulär die Cortisolkonzentration durch Regeneration von Cortison z.B. aus dem Blutkreislauf, zu Cortisol. Daher stellt diese ein wichtiges Element in der Glucocorticoid-vermittelten Genregulation dar. Die 11beta-HSD1 wird ubiquitär exprimiert, auf hohem Niveau besonders in Leber, Fettgewebe und glatten Muskelzellen. Insbesondere die Bedeutung der 11beta-HSD1 in Leber und Fettgewebe konnte mehrfach nachgewiesen werden. In der Leber führte eine erhöhte Aktivität aufgrund einer Überexpression in Mäusen zu einer verstärkten Gluconeogeneserate. Des Weiteren konnte gezeigt werden, dass eine erhöhte Expression und erhöhte Enzymaktivität der 11beta-HSD1 im subkutanen und viszeralen Fettgewebe assoziiert ist mit Fettleibigkeit, Insulinresistenz und Dyslipidämie. Über die Regulation ist jedoch noch wenig bekannt. Zur Untersuchung der Promotoraktivität wurde der Promotorbereich von -3034 bis +188, vor und nach dem Translations- und Transkriptionsstart, der 11beta-HSD1 kloniert. 8 Promotorfragmente wurden mittels Dual-Luciferase-Assay in humanen HepG2-Zellen sowie undifferenzierten und differenzierten murinen 3T3-L1-Zellen untersucht. Anschließend wurde mittels nicht-radioaktiven EMSA die Bindung des TATA-Binding Proteins (TBP) sowie von CCAAT/Enhancer-Binding-Proteinen (C/EBP) an ausgewählte Promotorregionen analysiert. Nach der Charakterisierung des Promotors wurden spezifische endogene und exogene Regulatoren untersucht. Fettsäuren modifizieren die Entstehung von Adipositas und Insulinresistenz. Ihre Wirkung wird u.a. PPARgamma-abhängig vermittelt und kann durch das Inkretin (Glucose-dependent insulinotropic Peptide) GIP modifiziert werden. So wurden die Effekte von unterschiedlichen Fettsäuren, vom PPARgamma Agonisten Rosiglitazon sowie dem Inkretin GIP auf die Expression und Enzymaktivität der 11beta-HSD1 untersucht. Dies wurde in-vitro-, tierexperimentell und in humanen in-vivo-Studien realisiert. Zuletzt wurden 2 Single Nucleotide Polymorphismen (SNP) im Promotorbereich der 11beta-HSD1 in der Zellkultur im Hinblick auf potentielle Funktionalität analysiert sowie die Assoziation mit Diabetes mellitus Typ 2 und Körpergewicht in der MeSyBePo-Kohorte bei rund 1.800 Personen untersucht. Die Luciferase-Assays zeigten basal eine zell-spezifische Regulation der 11beta-HSD1, wobei in allen 3 untersuchten Zelltypen die Bindung eines Repressors nachgewiesen werden konnte. Zudem konnte eine mögliche Bindung des TBPs sowie von C/EBP-Proteinen an verschiedene Positionen gezeigt werden. Die Transaktivierungsassays mit den C/EBP-Proteinen -alpha, -beta und -delta zeigten eben-falls eine zellspezifische Regulation des 11beta-HSD1-Promotors. Die Aktivität und Expression der 11beta-HSD1 wurde durch die hier untersuchten endogenen und exogenen Faktoren spezifisch modifiziert, was sowohl in-vitro als auch in-vivo in unterschiedlichen Modellsystemen dargestellt werden konnte. Die Charakterisierung der MeSyBePo-Kohorte ergab keine direkten Assoziationen zwischen Polymorphismus und klinischem Phänotyp, jedoch Tendenzen für eine erhöhtes Körper-gewicht und Typ 2 Diabetes mellitus in Abhängigkeit des Genotyps. Der Promotor der 11beta-HSD1 konnte aufgrund der Daten aus den Luciferaseassays sowie den Daten aus den EMSA-Analysen näher charakterisiert werden. Dieser zeigt eine variable und zell-spezifische Regulation. Ein wichtiger Regulator stellen insbesondere in den HepG2-Zellen die C/EBP-Proteine -alpha, -beta und -delta dar. Aus den in-vivo-Studien ergab sich eine Regulation der 11beta-HSD1 durch endogene, exogene und pharmakologische Substanzen, die durch die Zellkulturversuche bestätigt und näher charakterisiert werden konnten.
Im Rahmen dieser Dissertation wurden die erstmaligen Totalsynthesen der Arylnaphthalen-Lignane Alashinol D, Vitexdoin C, Vitrofolal E, Noralashinol C1 und Ternifoliuslignan E vorgestellt. Der Schlüsselschritt der entwickelten Methode, basiert auf einer regioselektiven intramolekularen Photo-Dehydro-Diels-Alder (PDDA)-Reaktion, die mittels UV-Strahlung im Durchflussreaktor durchgeführt wurde. Bei der Synthese der PDDA-Vorläufer (Diarylsuberate) wurde eine Synthesestrategie nach dem Baukastenprinzip verfolgt. Diese ermöglicht die Darstellung asymmetrischer komplexer Systeme aus nur wenigen Grundbausteinen und die Totalsynthese einer Vielzahl an Lignanen. In systematischen Voruntersuchungen konnte zudem die klare Überlegenheit der intra- gegenüber der intermolekularen PDDA-Reaktion aufgezeigt werden. Dabei stellte sich eine Verknüpfung der beiden Arylpropiolester über einen Korksäurebügel, in para-Position, als besonders effizient heraus. Werden asymmetrisch substituierte Diarylsuberate, bei denen einer der endständigen Estersubstituenten durch eine Trimethylsilyl-Gruppe oder ein Wasserstoffatom ersetzt wurde, verwendet, durchlaufen diese Systeme eine regioselektive Cyclisierung und als Hauptprodukt werden Naphthalenophane mit einem Methylester in 3-Position erhalten. Mit Hilfe von umfangreichen Experimenten zur Funktionalisierung der 4-Position, konnte zudem gezeigt werden, dass die Substitution der nucleophilen Cycloallen-Intermediate, während der PDDA-Reaktion, generell durch die Zugabe von N-Halogen-Succinimiden möglich ist. In Anbetracht der geringen Ausbeuten haben diese intermolekularen Abfangreaktionen, jedoch keinen präparativen Nutzen für die Totalsynthesen von Lignanen. Mit dem Ziel die allgemeinen photochemischen Reaktionsbedingungen zu optimieren, wurde erstmalig die triplettsensibilisierte PDDA-Reaktion vorgestellt. Durch die Verwendung von Xanthon als Sensibilisator wurde der Einsatz von effizienteren UVA-Lichtquellen ermöglicht, wodurch die Gefahr einer Photozersetzung durch Überbestrahlung minimiert wurde. Im Vergleich zur direkten Anregung mit UVB-Strahlung, konnten die Ausbeuten mit indirekter Anregung durch einen Photokatalysator signifikant gesteigert werden. Die grundlegenden Erkenntnisse und die entwickelten Synthesestrategien dieser Arbeit, können dazu beitragen zukünftig die Erschließung neuer pharmakologisch interessanter Lignane voranzutreiben.
1 Bisher ist nur die semisynthetische Darstellung von Noralashinol C ausgehend von Hydroxymatairesinol literaturbekannt.
Die vorliegende Dissertation behandelt drei thematische Schwerpunkte. Im Ergebnisteil steht die chemische Synthese von sogenannten (1,7)-Naphthalenophanen im Vordergrund, die zur Substanzklasse von Cyclophanen gehören. Während zahlreiche Synthesemethoden Strategien zum Aufbau von Ringsystemen (wie z. B. von Naphthalenophanen) verfolgen, die Teil einer bereits existierenden aromatischen Struktur der Ausgangsverbindung sind, nutzen nur wenige Ansätze Reaktionen, die einen Ringschluss zum gewünschten Produkt erst im Zuge der Synthese etablieren. Eine Benzanellierung, die eine besondere Aufmerksamkeit im Arbeitskreis erfahren hat, ist die Dehydro-DIELS-ALDER-Reaktion (DDA-Reaktion). Im Rahmen dieser Arbeit konnte gezeigt werden, dass zwölf ausgewählte (1,7)-Naphthalenophane, die teilweise ringgespannt und makrozyklisch aufgebaut waren, mithilfe einer photochemischen Variante der DDA-Reaktion (PDDA-Reaktion) zugänglich gemacht werden können. Die Versuche, auf thermischem Wege (TDDA-Reaktion) (1,7)-Naphthalenophane herzustellen, misslangen. Die außergewöhnliche Reaktivität der Photoreaktanten konnte mithilfe quantenchemischer Berechnungen durch eine gefaltete Grundzustandsgeometrie erklärt werden. Darüber hinaus wurden Ringspannungen und strukturelle Spannungsindikatoren der relevanten Photoprodukte ermittelt und Trends in Abhängigkeit der Linkerlänge in den NMR-Spektren der Zielverbindungen ermittelt sowie diskutiert. Zudem zeigte eine Variation am Chromophor (Acyl-, Carbonsäure- und Carbonsäureester) der Photoreaktanten bei der Bestrahlung in Dichlormethan eine vergleichbare Photokinetik und -reaktivität. Der zweite Abschnitt dieser Dissertation ist dem Design und der Entwicklung zweier Photoreaktoren für UV-Anwendungen im kontinuierlichen Durchfluss gewidmet, da photochemische Transformationen bekanntermaßen in ihrer Skalierbarkeit limitiert sind. Im ersten Prototyp konnten mittels effizienter Parallelschaltung mit bis zu drei UV-Lampen (𝜆𝜆 = 254, 310 und 355 nm) Produktmaterialmengen von bis zu n = 188 mmol anhand eines ausgewählten Fallbeispiels erreicht werden. Im konstruktionstechnisch stark vereinfachten zweiten Photoreaktor wurden alle quarzhaltigen Elemente gegen günstigeres PLEXIGLAS® ersetzt. Das Resultat waren identische Raum-Zeit-Ausbeuten in Bezug auf das zuvor gewählte Synthesebeispiel. Demnach bietet die UV-Photochemie im kontinuierlichen Durchfluss Vorteile gegenüber der traditionellen Bestrahlung im Tauchreaktor. Hinsichtlich Reaktionszeit, Produktausbeuten und Lösemittelverbrauch ist sie synthetisch weit überlegen. Im letzten Abschnitt der Arbeit wurden diese Erkenntnisse genutzt, um biomedizinisch und pharmakologisch vielversprechende 1-Arylnaphthalen-Lignane mittels einer intramolekularen PDDA-Reaktion (IMPDDA-Reaktion) als Schlüsselschritt herzustellen. Hierzu wurden drei Konzepte erarbeitet und in der Totalsynthese von drei ausgewählten Zielstrukturen auf Basis des 1-Arylnaphthalengrundgerüsts realisiert.
Zur selektiven Entfernung von Schwermetallen aus industriellen Abwässern und Prozesslösungen der metallverarbeitenden Industrie werden synthetische metallkomplexierende funktionelle Polymere – mit Iminodiessigsäure (IDE) als aktive Spezies – seit Jahren erfolgreich zur Eliminierung störender Kationen eingesetzt. Ständig steigende Anforderungen an die Qualität der aufzubereitenden Wässer verlangen nach leistungsfähigen Selektivaustauschern, die den Erhalt der Eigenschaften von Prozesslösungen (z. B. pH-Wert, Salzgehalt) ermöglichen. Ziel der Untersuchungen war es, die strukturellen Matrixeinflüsse auf Beladung, Kapazität, Selektivität und Kinetik durch Variation der Matrix und der experimentellen Bedingungen näher zu untersuchen. Auf Basis einer monodispersen Erstsubstitution eines Styren-Divinylbenzen-Copolymerisates wurde durch gezielten Einbau funktioneller Gruppen – Synthese mit differenziertem Substitutionsgrad (TK/N 1-2) – versucht, systematisch den Einfluss des Substitutionsgrades der Matrix auf die Eigenschaften der Ionenaustauscher zu analysieren. Methodisch geordnet wurden zunächst die Versuche nach dem Batch- und anschließend nach dem Säulenverfahren durchgeführt und parallel dazu die Matrix charakterisiert. Das Verhalten der funktionellen Ankergruppen in Abhängigkeit vom pH-Wert der Lösung (pH-Bereich 2 - 5) wurde untersucht, der optimale Anreicherungs-pH-Wert, die maximale Beladung (Kapazität) und Selektivität der unterschiedlich substituierten Proben für die Schwermetall-Ionen Cu, Zn, Ni, Cd, Pb und Co ermittelt. Den statischen Versuchen folgten dynamische Untersuchungen im Säulenverfahren. Ziel war die Ermittlung des Durchbruchverhaltens und der Durchbruchkapazität bei optimalem pH-Wert in Abhängigkeit vom Substitutionsgrad gegenüber den Einzelmetallionen (Cu, Ni, Zn) und ausgewählten Paaren (Cu/Ni, Cu/Zn, Ni/Zn). Alle Ionenaustauscher wurden ausschließlich in der Ca-Form eingesetzt.
Untersuchungen zur räumlichen Analyse und Visualisierung von Mietpreisdaten für Immobilienportale
(2015)
Die vorliegende Arbeit verfolgt das Ziel, aus geoinformatischer Sicht eine konzeptionelle Grundlage zur räumlichen Optimierung von Immobilienportalen zu schaffen. Die Arbeit geht dabei von zwei Hypothesen aus:
1. Verfahren der räumlichen Statistik und des Maschinellen Lernens zur Mietpreisschätzung sind den bisher eingesetzten Verfahren der hedonischen Regression überlegen und eignen sich zur räumlichen Optimierung von Immobilienportalen.
2. Die von Immobilienportalen publizierten webbasierten Mietpreiskarten geben nicht die tatsächlichen räumlichen Verhältnisse auf Immobilienmärkten wieder. Alternative webbasierte Darstellungsformen, wie z.B. Gridmaps, sind dem Status Quo der Immobilienpreiskarten von Immobilienportalen überlegen und visualisieren die tatsächlichen räumlichen Verhältnisse von Immobilienpreisen zweckmäßiger.
Beide Thesen können bewiesen werden.
Es erfolgt zunächst eine umfangreiche Erhebung des Forschungsbedarfs mittels Literaturstudien und technologischer Recherche. Zur Beantwortung der Forschungsfragen wird als quantitative Datenbasis ein 74.098 Mietangebote umfassender Datensatz (von Januar 2007 bis September 2013) eines Immobilienportals akquiriert. Dieser reicht jedoch nicht in vollem Umfang zur Beantwortung der Fragestellungen aus. Deshalb führt der Autor Experteninterviews zur Erhebung einer qualitativen Datenbasis. Deren Analyse ergibt in Kombination mit der Literaturstudie und der technologischen Recherche ein umfassendes, bisher so nicht verfügbares Bild. Es stellt den Status Quo der räumlichen Sicht sowie der raumanalytischen und geovisuellen Defizite von Immobilienportalen dar.
Zur Optimierung der raumanalytischen und geovisuellen Defizite werden forschungsbasierte Lösungsansätze herausgearbeitet und teilimplementiert. Methoden des Maschinellen Lernens und räumliche Schätzverfahren werden als Alternativen zu den von Immobilienportalen bisher genutzten „nicht räumlichen“ Analyseverfahren zur Preismodellierung untersucht. Auf Grundlage eines hierfür konzipierten Validierungsrahmens werden diese Methoden für die Nutzung im Kontext von Immobilienportalen adaptiert. Die prototypische Teilimplementierung zeigt die programmiertechnische Umsetzung des Konzeptes auf. Eine umfassende Analyse geeigneter Sekundärvariablensets zur Mietpreisschätzung liefert als methodisches Resultat, dass Interpolatoren, die Sekundärvariablen benötigen (Kriging with external drift, Ordinary Cokriging), kaum zu valideren Mietpreisschätzergebnissen gelangen als die Methode des Ordinary Kriging, die keine Sekundärvariablen benötigt. Die Methoden Random Forest aus dem Maschinellen Lernen und die Geographisch Gewichtete Regression hingegen bergen großes Potential zur Nutzung der räumlichen Mietpreisschätzung im Kontext von Immobilien-portalen. Die Forschungsergebnisse der räumlichen Preismodellierung werden in die räumliche Visualisierung von Mietpreisen transferiert.
Für die webbasierte Mietpreisdarstellung wird ein Set alternativer Darstellungsmethoden entwickelt, um Mietpreiskarten-Prototypen abzuleiten. Ein methodisches Ergebnis der Entwicklung der Mietpreiskarten-Prototypen ist die Entwicklung eines geeigneten Ansatzes der Loslösung des Preisbezugs von fachfremd verwendeten Bezugsgeometrien. Hierfür wird vom Autor der Begriff der zonenlosen Preiskarte geprägt. Diese werden mit Methoden des Gridmapping erstellt. Es werden optimale Rasterauflösungen zur Darstellung interpolierter Rastergrößen ermittelt. Zonenlose Preiskarten mit Methoden des Gridmapping, gepaart mit einer optionalen gebäudescharfen Darstellung in größeren Maßstäben, sind als Resultate der Forschung die bestmögliche, sich an realen Verhältnissen orientierende, räumliche Mietpreisdarstellung. Die entstandenen Prototypen sind eine Annäherung der wahren Verteilung des Mietpreises im Raum und um einiges schärfer, als die auf der hedonischen Regression basierenden Darstellungen. Somit kann die wahre „Topographie“ der Mietpreislandschaft abgebildet werden. Ein Einsatz der Karten für Nutzergruppen wie Makler, Investoren oder Kommunen zur Analyse städtischer Mietmärkte ist denkbar. Alle entstandenen Prototypen sind unter der Nutzung von Map APIs umgesetzt. Ein Ergebnis dessen ist, dass Map APIs noch an diversen „Kinderkrankheiten“ leiden und derart umgesetzte Mietpreiskarten noch einen weiten Weg vor sich haben, bis sie das Niveau thematischer Karten von Immhof oder Arnberger erreichen.
Die konzeptionellen Überlegungen und Teilimplementierungen münden in drei Prozessketten, die Umsetzungsoptionen für eine räumliche Optimierung von Immobilienportalen darstellen. Dabei werden zwei Szenarien für eine räumlich optimierte Mietpreisschätzung und ein Szenario für eine räumlich optimierte Mietpreisdarstellung herausgearbeitet.
Alle Organismen sind für ihr Überleben auf Metalle angewiesen. Hierbei gibt es für jedes Metall einen Konzentrationsbereich, der das Optimum zwischen Metallmangel, -bedarf und -toxizität darstellt. Es gilt mittlerweile als erwiesen, dass alle Organismen zur Aufrechterhaltung des Metallgleichgewichts ein komplexes Netzwerk von Proteinen und niedermolekularen Verbindungen entwickelt haben. Die molekularen Komponenten dieses Netzwerks sind nur zu einem Teil bekannt und charakterisiert: In den letzten Jahren wurden einige Proteinfamilien identifiziert, deren Mitglieder Metalle durch Lipidmembranen transportieren. Eine dieser Metalltransporterfamilien ist die Cation Diffusion Facilitator (CDF)-Familie: Alle charakterisierten Mitglieder exportieren Metalle aus dem Zytoplasma – entweder in zelluläre Kompartimente oder aus der Zelle heraus. Von den zwölf Mitgliedern dieser Familie in Arabidopsis thaliana (A. thaliana) – Metall Toleranz Protein (MTP)-1 bis -12 – wurden bisher AtMTP1 und AtMTP3 charakterisiert. In dieser Arbeit wird die Charakterisierung von AtMTP2 beschrieben. Wie die homologen Proteine AtMTP1 und AtMTP3 führt AtMTP2 zu Zn-Toleranz, wenn es heterolog in Zn-sensitiven Hefemutanten exprimiert wird. Mit AtMTP2 transformierte Hefemutanten zeigten darüber hinaus erhöhte Co-Toleranz. Expression von chimären AtMTP2/GFP Fusionsproteinen in Hefe, A.thaliana protoplasten und in stabil transformierten A.thalinana Planzenlinien deutet auf Lokalisation of AtMTP2 in Membranen des Endoplasmatischen Retikulums (ER) hin, wenn GFP an den C-Terminus von MTP2 fusioniert wird. Fusion of GFP an den N-Terminus von AtMTP2 führte zu Lokalisation in der vakuolären Membran, was wahrscheinlichsten auf Fehllokalisierung durch Maskierung eines ER-Retentionsmotivs (XXRR) am N-Terminus von AtMTP2 zurückgeht. Dies legt nahe, dass AtMTP2 die erwähnten Metalle in das Endomembransystem der Zelle transportieren kann. Eine gewebespezifische Lokalisierung wurde mit Pflanzen durchgeführt, die das β-Glucuronidase (GUS)-Reporterprotein bzw. chimäre Fusionsproteine aus EGFP und AtMTP2 unter Kontrolle des nativen pMTP2-Promotors exprimierten. Diese Experimente bestätigten zum einen, dass der pMTP2-Promotor nur unter Zn-Defizienz aktiv ist. GUS-Aktivität wurde unter diesen Bedingungen in zwei Zonen der Wurzelspitze beobachtet: in den isodiametrischen Zellen der meristematischen Zone und in der beginnenden Wurzelhaarzone. Darüber hinaus konnte gezeigt werden, dass die EGFP-Fusionsproteine unter Kontrolle des nativen pMTP2-Promotors nur in epidermalen Zellen exprimiert werden. Für eine homozygote Knockout- Linie, mtp2-S3, konnte bisher kein eindeutiger Phänotyp identifiziert werden. Auf Grundlage der bisher durchgeführten Charakterisierung von AtMTP2 erscheinen zwei Modelle der Funktion von AtMTP2 in der Pflanze möglich: AtMTP2 könnte essentiell für die Versorgung des ER mit Zn unter Zn-Mangelbedingungen sein. Hierfür spricht, dass AtMTP2 in jungen, teilungsaktiven und damit Zn-benötigenden Wurzelzonen exprimiert wird. Die auf die Epidermis beschränkte Lokalisation könnte bei diesem Modell auf die Möglichkeit der zwischenzellulären Zn-Verteilung innerhalb des ER über Desmotubules hindeuten. Alternativ könnte AtMTP2 eine Funktion bei der Detoxifizierung von Zn unter Zn-Schock Bedingungen haben: Es ist bekannt, dass unter Zn- Mangelbedingungen die Expression der zellulären Zn-Aufnahmesysteme hochreguliert wird. Wenn nun die Zn-Verfügbarkeit im Boden z. B durch eine pH-Änderung innerhalb kurzer Zeit stark ansteigt, besteht die Notwendigkeit der Entgiftung von Zn innerhalb der Zelle, bis der starke Einstrom von Zn ins Zytoplasma durch die Deaktivierung der Zn-Aufnahmesysteme und einer geringeren Expression in der Pflanze gedrosselt ist. Ein ähnlicher Mechanismus wurde in der Bäckerhefe S. cerevisae beschrieben, in der darüber hinaus ein Zn-Transporter verstärkt exprimiert wird, der Zn durch Transport in die Vakuole entgiften kann. Es ist durchaus möglich, dass in Arabidopsis AtMTP2 die Zn-Detoxifizierung unter diesen speziellen Bedingungen durch Zn-Transport in das ER oder die Vakuole vermittelt. Zur Identifikation weiterer Komponenten des Metallhomöostasenetzwerks sind verschiedene Ansätze denkbar. In dieser Arbeit wurde in Hefe ein heterologer Screen durchgeführt, um Interaktoren für vier Mitglieder der Arabidopsis-CDF-Familie zu identifizieren. Unter den 11 im Hefesystem bestätigten Kandidaten befindet sich mit AtSPL1 ein AtMTP1-Interaktionskandidat, der möglicherweise eine Rolle bei der Cu-,Zn-Homöostase spielt. Als wahrscheinliche AtMTP3-Interaktionskandidaten wurde die c”-Untereinheit der vakuolären H+-ATPase AtVHA identifiziert sowie mit AtNPSN13 ein Protein, das vermutlich eine Rolle bei Fusionen von Vesikeln mit Zielmembranen spielt. Ein anderer Ansatz zur Identifikation neuer Metallhomöostasegene ist die vergleichende Elementanalyse von natürlichen oder mutagenisierten Pflanzenpopulationen. Voraussetzung für diesen Ansatz ist die schnelle und genaue Analyse des Elementgehalts von Pflanzen. Eine etablierte Methode zur simultanen Bestimmung von bis zu 65 Elementen in einer Probe ist die Inductively Coupled Plasma Optical Emission Spectrometry (ICP OES). Der limitierende Faktor für einen hohen Probendurchsatz ist die Notwendigkeit, Proben für die Analyse zu verflüssigen. Eine alternative Methode der Probenzuführung zum Analysegerät ist die elektrothermale Verdampfung (ETV) der Probe. Zur weitgehend automatisierten Analyse von Pflanzenmaterial mit minimiertem Arbeitsaufwand wurde eine Methode entwickelt, die auf der Kopplung der ETV mit der ICP OES basiert.
Arachidonsäurelipoxygenasen (ALOX-Isoformen) sind Lipid-peroxidierenden Enzyme, die bei der Zelldifferenzierung und bei der Pathogenese verschiedener Erkrankungen bedeutsam sind. Im menschlichen Genom gibt es sechs funktionelle ALOX-Gene, die als Einzelkopiegene vorliegen. Für jedes humane ALOX-Gen gibt es ein orthologes Mausgen. Obwohl sich die sechs humanen ALOX-Isoformen strukturell sehr ähnlich sind, unterscheiden sich ihre funktionellen Eigenschaften deutlich voneinander. In der vorliegenden Arbeit wurden vier unterschiedliche Fragestellungen zum Vorkommen, zur biologischen Rolle und zur Evolutionsabhängigkeit der enzymatischen Eigenschaften von Säugetier-ALOX-Isoformen untersucht:
1) Spitzhörnchen (Tupaiidae) sind evolutionär näher mit dem Menschen verwandt als Nagetiere und wurden deshalb als Alternativmodelle für die Untersuchung menschlicher Erkrankungen vorgeschlagen. In dieser Arbeit wurde erstmals der Arachidonsäurestoffwechsel von Spitzhörnchen untersucht. Dabei wurde festgestellt, dass im Genom von Tupaia belangeri vier unterschiedliche ALOX15-Gene vorkommen und die Enzyme sich hinsichtlich ihrer katalytischen Eigenschaften ähneln. Diese genomische Vielfalt, die weder beim Menschen noch bei Mäusen vorhanden ist, erschwert die funktionellen Untersuchungen zur biologischen Rolle des ALOX15-Weges. Damit scheint Tupaia belangeri kein geeigneteres Tiermodel für die Untersuchung des ALOX15-Weges des Menschen zu sein.
2) Entsprechend der Evolutionshypothese können Säugetier-ALOX15-Orthologe in Arachidonsäure-12-lipoxygenierende- und Arachidonsäure-15-lipoxygenierende Enzyme eingeteilt werden. Dabei exprimieren Säugetierspezies, die einen höheren Evolutionsgrad als Gibbons aufweisen, Arachidonsäure-15-lipoxygenierende ALOX15-Orthologe, während evolutionär weniger weit entwickelte Säugetiere Arachidonsäure-12 lipoxygenierende Enzyme besitzen. In dieser Arbeit wurden elf neue ALOX15-Orthologe als rekombinante Proteine exprimiert und funktionell charakterisiert. Die erhaltenen Ergebnisse fügen sich widerspruchsfrei in die Evolutionshypothese ein und verbreitern deren experimentelle Basis. Die experimentellen Daten bestätigen auch das Triadenkonzept.
3) Da humane und murine ALOX15B-Orthologe unterschiedliche funktionelle Eigenschaften aufweisen, können Ergebnisse aus murinen Krankheitsmodellen zur biologischen Rolle der ALOX15B nicht direkt auf den Menschen übertragen werden. Um die ALOX15B-Orthologen von Maus und Mensch funktionell einander anzugleichen, wurden im Rahmen der vorliegenden Arbeit Knock-in Mäuse durch die In vivo Mutagenese mittels CRISPR/Cas9-Technik hergestellt. Diese exprimieren eine humanisierte Mutante (Doppelmutation von Tyrosin603Asparaginsäure+Histidin604Valin) der murinen Alox15b. Diese Mäuse waren lebens- und fortpflanzungsfähig, zeigten aber geschlechtsspezifische Unterschiede zu ausgekreuzten Wildtyp-Kontrolltieren im Rahmen ihre Individualentwicklung.
4) In vorhergehenden Untersuchungen zur Rolle der ALOX15B in Rahmen der Entzündungsreaktion wurde eine antiinflammatorische Wirkung des Enzyms postuliert. In der vorliegenden Arbeit wurde untersucht, ob eine Humanisierung der murinen Alox15b die Entzündungsreaktion in zwei verschiedenen murinen Entzündungsmodellen beeinflusst. Eine Humanisierung der murinen Alox15b führte zu einer verstärkten Ausbildung von Entzündungssymptomen im induzierten Dextran-Natrium-Sulfat-Kolitismodell. Im Gegensatz dazu bewirkte die Humanisierung der Alox15b eine Abschwächung der Entzündungssymptome im Freund‘schen Adjuvans Pfotenödemmodell. Diese Daten deuten darauf hin, dass sich die Rolle der ALOX15B in verschiedenen Entzündungsmodellen unterscheidet.
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Die Zahl der Kolonkarzinome in den westlichen Industrieländern steigt in den letzten Jahren stetig an. Zu den Verbindungen, die mit der Zubereitung der Nahrung entstehen, mit ihr aufgenommen werden und die Kolonkanzerogenese möglicherweise begünstigen, gehört das heterozyklische aromatische PhIP, das bei der Erhitzung proteinreicher Nahrungsmittel entsteht. Neben zahlreichen Fütterungsversuchen an Nagern existieren auch Zellkulturmodelle zur Untersuchung der molekularen Mechanismen der PhIP-induzierten Kolonkanzerogenese. Die chemische Transformation von Zellen sollte durch wiederholte Exposition gegenüber dem hydroxylierten Metaboliten des Kanzerogens (N2-OH-PhIP) erzielt werden. Es wurden IEC-18-Zellen der Ratte und HCEC-Zellen des Menschen zur Untersuchung verwendet. Die Behandlung der IEC-18-Zellen führt nach 25 Behandlungszyklen mit Konzentrationen von 5 bis 20 µM nicht zur Transformation der Zellen. Die Anwesenheit von N2-OH-PhIP führt zu einer zehnfach erhöhten Induktion der GST-Aktivität, insbesondere der Untereinheiten GST-A1, -A3, -Pi und -T2, die für die effiziente Detoxifizierung des N-Acetoxy-Metaboliten vom N2-OH-PhIP verantwortlich sind. Bereits nach drei Behandlungen mit 1,5 µM N2-OH-PhIP konnte eine maligne Transformation der HCEC-Zellen erzielt werden. Die Zellen zeigten die charakteristischen Zeichen der Transformation: veränderte Wachstumseigenschaften wie klonales dreidimensionales Zellwachstum („pilling up“), Hemmung der Zell-Zell-Kontaktinhibierung, verkürzte Populationsverdopplungszeiten und tumorigene und metastasierende Eigenschaften. Außerdem exprimierten die N2-OH-PhIP-exponierten humanen Kolonzellen mit steigender Anzahl der Behandlungen größere Mengen des trunkierten APC-Proteins. Die bekannten PhIP-spezifischen Mutationen im APC-Gen resultieren in der Expression eines trunkierten Proteinproduktes und werden als frühe Ereignisse in der Kolonkanzerogenese betrachtet. Die zusammenfassende Betrachtung aller Ergebnisse zeigt, dass die IEC-18-Zelllinie zur chemischen Transformation durch N2-OH-PhIP ungeeignet ist. Dagegen wurde erstmalig eine vollständige chemische Transformation von Humandickdarmepithelzellen in vitro durch Exposition der humanen Kolonepithelzelllinie HCEC gegenüber dem Kolonkarzinogen N2-OH-PhIP erzielt.
Even though the structure of the plant cell wall is by and large quite well characterized, its synthesis and regulation remains largely obscure. However, it is accepted that the building blocks of the polysaccharidic part of the plant cell wall are nucleotide sugars. Thus to gain more insight into the cell wall biosynthesis, in the first part of this thesis, plant genes possibly involved in the nucleotide sugar interconversion pathway were identified using a bioinformatics approach and characterized in plants, mainly in Arabidopsis. For the computational identification profile hidden markov models were extracted from the Pfam and TIGR databases. Mainly with these, plant genes were identified facilitating the “hmmer” program. Several gene families were identified and three were further characterized, the UDP-rhamnose synthase (RHM), UDP-glucuronic acid epimerase (GAE) and the myo-inositol oxygenase (MIOX) families. For the three-membered RHM family relative ubiquitous expression was shown using variuos methods. For one of these genes, RHM2, T-DNA lines could be obtained. Moreover, the transcription of the whole family was downregulated facilitating an RNAi approach. In both cases a alteration of cell wall typic polysaccharides and developmental changes could be shown. In the case of the rhm2 mutant these were restricted to the seed or the seed mucilage, whereas the RNAi plants showed profound changes in the whole plant. In the case of the six-membered GAE family, the gene expressed to the highest level (GAE6) was cloned, expressed heterologously and its function was characterized. Thus, it could be shown that GAE6 encodes for an enzyme responsible for the conversion of UDP-glucuronic acid to UDP-galacturonic acid. However, a change in transcript level of variuos GAE family members achieved by T-DNA insertions (gae2, gae5, gae6), overexpression (GAE6) or an RNAi approach, targeting the whole family, did not reveal any robust changes in the cell wall. Contrary to the other two families the MIOX gene family had to be identified using a BLAST based approach due to the lack of enough suitable candidate genes for building a hidden markov model. An initial bioinformatic characterization was performed which will lead to further insights into this pathway. In total it was possible to identify the two gene families which are involved in the synthesis of the two pectin backbone sugars galacturonic acid and rhamnose. Moreover with the identification of the MIOX genes a genefamily, important for the supply of nucleotide sugar precursors was identified. In a second part of this thesis publicly available microarray datasets were analyzed with respect to co-responsive behavior of transcripts on a global basis using nearly 10,000 genes. The data has been made available to the community in form of a database providing additional statistical and visualization tools (http://csbdb.mpimp-golm.mpg.de). Using the framework of the database to identify nucleotide sugar converting genes indicated that co-response might be used for identification of novel genes involved in cell wall synthesis based on already known genes.
In der vorliegenden Arbeit wird untersucht, in wie weit physikalische Experimente ein flow-Erleben bei Lernenden hervorrufen. Flow-Erleben wird als Motivationsursache gesehen und soll den Weg zu Freude und Glück darstellen. Insbesondere wegen dem oft zitierten Fachkräftemangel in naturwissenschaftlichen und technischen Berufen ist eine Motivationssteigerung in naturwissenschaftlichen Unterrichtsfächern wichtig. Denn trotz Leistungssteigerungen in internationalen Vergleichstests möchten in Deutschland deutlich weniger Schüler*innen einen solchen Beruf ergreifen als in anderen Industriestaaten. Daher gilt es, möglichst früh Schüler*innen für naturwissenschaftlich-technische Fächer zu begeistern und insbesondere im regelrecht verhassten Physikunterricht flow-Erleben zu erzeugen.
Im Rahmen dieser Arbeit wird das flow-Erleben von Studierenden in klassischen Laborexperimenten und FELS (Forschend-Entdeckendes Lernen mit dem Smartphone) als Lernumgebung untersucht. FELS ist eine an die Lebenswelt der Schüler*innen angepasste Lernumgebung, in der sie mit Smartphones ihre eigene Lebenswelt experimentell untersuchen.
Es zeigt sich, dass sowohl klassische Laborexperimente als auch in der Lebenswelt durchgeführte, smartphonebasierte Experimente flow-Erleben erzeugen. Allerdings verursachen die smartphonebasierten Experimente kaum Stressgefühle.
Die in dieser Arbeit herausgefundenen Ergebnisse liefern einen ersten Ansatz, der durch Folgestudien erweitert werden sollte.
Mit der vorliegenden Arbeit sollten mit Hilfe elektronenmikroskopischer Methoden verschiedene Liposomen-DNA-Komplexe zum Gentransfer charakterisiert sowie die Aufnahme und Verteilung in der Zellkultur untersucht werden. Dabei waren vor allem solche Präparationen von besonderem Interesse, die in unserer Arbeitsgruppe 'Drug Targeting' getestet oder entwickelt und verwendet wurden, wie Sendai-Virus Liposomen (HVJ-Liposomen), Virosomen sowie DAC-Chol und DOCSPER-Liposomen als Vertreter der kationischen Lipide. Im ersten Teil der Arbeit wurden fusogene Liposomen und Virosomen charakterisiert. Bei diesen Untersuchungen wurden folgende Ergebnisse erzielt: ·Sendai-Viren fusionieren mit Liposomen unterschiedlicher Lipidzusammensetzung. ·Die daraus resultierenden HVJ-Liposomen sind mit elektronenmikroskopischen Methoden identifizierbar. ·Die Spikes auf den HVJ-Liposomen besitzen fusogene Eigenschaften. ·HVJ-Liposomen eignen sich auf Grund der geringen Ausbeute sowie der geringen Transfektionseffizienz nicht zum in vitro Gentransfer. ·Virosomen stellen einen weiteren Typ fusogener Gentransfervesikel dar. ·Ihre Größe und fusogenen Eigenschaften sind abhängig von der externen Zugabe einer optimierten Lipidmischung. ·Im Innenraum der Virosomen kann mit Poly-L-Lysin vorkomplexierte DNA verkapselt werden. ·Die fusogenen Eigenschaften der Virosomen wurden mit Hilfe immunelektronenmikroskopischer Techniken und monoklonaler Antikörper gegen Hämagglutinin/Neuraminidase und das Fusionsprotein sowie mit polyklonalen Antiseren gezeigt. ·An Hand goldmarkierter DNA sind Virosomen nach der Transfektion in der Zelle nachweisbar. Da in unserer Arbeitsgruppe bevorzugt kationische Liposomen zum Gentransfer verwendet werden, wurde auch die Struktur der Liposomen untersucht und folgende Ergebnisse dokumentiert: ·Die Struktur und die Größe kationischer Liposomen werden hauptsächlich durch die Lipidzusammensetzung bestimmt. ·Die Bildung von Liposomen-DNA-Komplexen ist mit einer Größenzunahme der Komplexe gekoppelt. ·Die Anzahl gebundener Plasmide steigt mit der Größe der Lipoplexe. ·Gentransferaktive Lipopolyplexe (mit Protaminsulfat komplexierte DNA und DAC-Chol- Liposomen) sind kleiner als Lipoplexe. Ihre Struktur wird von der Zusammensetzung bestimmt. Eine weitere wichtige Frage betrifft den Weg der Gencarrier in der Zelle. Kenntnisse über diese Vorgänge sind vorteilhaft, um die einzelnen Schritte zu verstehen und möglichst gezielt zu verbessern. Bei der Untersuchung der Partikel im Hinblick auf zelluläre Barrieren beim Gentransfer konnten folgende Ergebnisse erzielt werden: ·Die Bindung der Partikel an die Zellmembran und Aufnahme sind abhängig von den eingesetzten Zellen und Komplexen sowie derInkubationszeit. ·Die Aufnahme erfolgt über endozytotische Mechanismen, wobei Lipopolyplexe schneller als Lipoplexe in die Zellen gelangen. Nicht alle gebundenen Komplexe werden aufgenommen. ·Die aufgenommenen Partikel befinden sich in Endosomen und werden ins Innere der Zelle transportiert. ·Freisetzung der DNA und Eintritt in den Zellkern über Kernporen konnte nicht beobachtet werden. ·DNA-haltige Vesikel in Kernnähe deuten auf einen weiteren Mechanismus hin (Vesikeltransfer zum Zellkern).
Am Beispiel der Wiederkäuer wurde unter Zuhilfenahme von biochemischen und molekularbiologischen Methoden die Adaptation von Pflanzenfressern (Herbivoren) an pflanzliche Sekundärmetabolite wie z.B. Tannine untersucht. Tannine können in nicht an ihren Verzehr adaptierten Spezies durch ihr Proteinbindungsvermögen die Nahrungsverwertung und damit Wachstum und Gesundheit des Pflanzenfressers beeinträchtigen (antinutritive Wirkung). Einige Wiederkäuerarten wie z.B. das Reh (Capreolus capreolus) haben in ihrem Nahrungsspektrum viele stark tanninhaltige Pflanzen, leiden aber nicht unter den erwähnten postdigestiven Konsequenzen. Eine Möglichkeit, die antinutritive Wirkung von Tanninen zu neutralisieren, besteht in der Produktion tanninbindender Speichelproteine. Der Speichel verschiedener Wiederkäuerarten wurde auf das Vorhandensein tanninbindender Proteine untersucht. Diese Arten wurden so ausgewählt, dass alle drei Ernährungstypen (Konzentratselektierer, Intermediärtyp, Gras- und Rauhfutterfresser) in den Vergleich eingeschlossen werden konnten. Als Referenzspezies wurde der Konzentratselektierer Reh herangezogen. Die Speichelproteine des Rehs und die der Intermediärtypen (Rentier, Rangifer tarandus; Damhirsch, Cervus dama; Moschusochse, Ovibos moschatus) banden ungefähr doppelt so effektiv an hydrolysierbare Tannine (Tanninsäure), wie die der untersuchten Gras- und Rauhfutterfresser (Rind, Bos taurus; und Mufflon, Ovis orientalis musimon). Diese Abstufung zeigte sich auch bei der Untersuchung der Bindung an kondensierte Tannine (Quebracho). Eine Ausnahme stellte Mufflonspeichel dar, dieser band ebenso gut an Quebracho wie die Speichelproteine der anderen Ernährungstypen. Über eine Aminosäuretotalanalyse konnte festgestellt werden, dass der Speichel einiger untersuchter Wiederkäuerarten prolinreiche Proteine (PRPs) enthielt. Unter Ausnutzung ihrer Trichloressigsäure (TCA)-Löslichkeit wurden diese angereichert und genauer untersucht. Die Analyse der TCA-löslichen Speichelproteine der Konzentratselektierer (Reh, Elch) ergab einen relativen Prolingehalt von über 35 %, während beim Moschusochsen noch 29 % gemessen wurden. In Damhirsch- und Rinderspeichel wurden keine prolinreichen Proteine gefunden. Für die TCA-löslichen Speichelproteine des Rehs konnte eine hohe Tanninbindungskapazität nachgewiesen werden. Diese banden 24 - 30 x effektiver an Tannine als die TCA-löslichen Speichelproteine des Rindes. Die Tanninbindungskapazitäten der TCA-löslichen Speichelproteine von Moschusochse und Damhirsch waren ebenfalls höher als die des Rindes, aber niedriger als die des Rehs. Die Kohlenhydrat-Analyse der TCA-löslichen Speichelproteine des Rehs erbrachte, dass es sich bei ihnen um Glykoproteine handelt. Mittels Gelfiltration und zweidimensionaler Polyacrylamidgelektrophorese konnten fünf Proteingruppen mit Molekulargewichten zwischen 15 und 50 kd sowie isoelektrischen Punkten zwischen 4,0 und 8,2 detektiert werden. Von 15 dieser Proteine konnten die N-terminalen Aminosäuresequenzen ermittelt werden. Ausgehend von diesen Informationen wurden Reh-PRP spezifische mRNAs isoliert und partiell sequenziert. Die meisten dieser Fragmente hatten eine gemeinsame 18 Aminosäuren lange C-terminale Sequenz PPPEEQPEE/QSPDEE/DSPSE. Die Suche nach Übereinstimmungen der analysierten Sequenzen mit anderen Säugetier-PRPs in der Genbank ergab keine sinnvollen Ähnlichkeiten. Die Ergebnisse können zu Informationen über tanninbindende Proteine anderer Wiederkäuer führen. Die Sequenzinformationen stellen einen Ausgangspunkt bei der Analyse der evolutiven Zusammenhänge der Cerviden dar.
Auf dem Weg der genetischen Information stellt die Translation der RNA in eine Aminosäuresequenz den letzten Schritt dar. In Chloroplasten, den grünen Organellen der Pflanzenzellen, findet ein Großteil der Regulation der Genexpression auf Ebene der Initiation dieses Schrittes statt. Eine Vielzahl von Eigenschaften der RNA und von Faktoren, die an die RNA binden, entfalten einen Einfluss auf diesen Schritt. Bisher unvollständig aufgeklärt ist die Rolle einer konservierten Nukleotidsequenz in der untranslatierten Region der RNA -- der Shine-Dalgarno-Sequenz. Diese stellt in Bakterien, wie z.B. E. coli als Ribosomenbindestelle sicher, dass Ribosomen den Anfang der zu translatierenden Sequenz zuverlässig erkennen. Im Rahmen dieser Arbeit wurden diverse DNA-Konstrukte in Plastiden von Tabak eingebracht. Hierzu zählten Konstrukte, die sowohl eine erhöhte Anzahl von Ribosomenbindestellen enthielten als auch vermehrte Startpunkte der Translation. Zusätzlich wurden Konstrukte hergestellt, die die Situation von mehreren zu translatierenden Regionen in der RNA nachstellten. Es konnte festgestellt werden, dass plastidäre Ribosomen die strangaufwärts gelegenen Translationsstartpunkte bevorzugen -- im Gegensatz zu E. coli, wo alle Startpunkte gleichmäßig genutzt wurden. Hierdurch zeigten die prokaryotischen Ribosomen aus Chloroplasten, die sich aus bakteriellen Systemen ableiten, Eigenschaften von eukaryotischen Ribosomen. Ein zweites Teilprojekt dieser Arbeit beschäftigte sich mit der Inkompatibilität von Chloroplasten mit dem Kerngenom. In Kreuzungen von Arten der Gattung Pelargonium fielen Kombinationen auf, bei denen die Tochterpflanzen bleiche Blattbereiche bis hin zu vollständig weißen Pflanzen zeigten. Dieses Phänomen wird als Bastardbleichheit bezeichnet. In der Gattung Pelargonium werden Chloroplasten von beiden Elternteilen an die Tochterpflanzen vererbt. Da das Phänomen der Bastardbleichheit nur in einem der Plastiden vorkommt, nicht jedoch im anderen in der gleichen Pflanze, muss von einem Effekt ausgegangen werden, der von Plastiden ausgeht. Die Interaktionen zwischen Zellkern und Chloroplasten sind offensichtlich stark gestört. Zur detaillierten Untersuchung dieses Effekts wurde die Nukleotidsequenz von drei Chloroplastengenomen aufgeklärt. Es konnte eine Reihe von Sequenzunterschieden der Genome ermittelt werden. Aus diesen wurde eine Reihe von Unterschieden beobachtet, die einen solchen Effekt zur Folge haben können. Aus diesen Unterschieden wurde eine Reihe von potentiellen Kandidatengenen zusammengestellt, die in weiteren Arbeiten auf ihre Rolle in der Entstehung der Bastardbleichheit untersucht werden.