Refine
Has Fulltext
- yes (78) (remove)
Year of publication
- 2009 (78) (remove)
Document Type
- Doctoral Thesis (78) (remove)
Language
- English (48)
- German (28)
- French (1)
- Multiple languages (1)
Is part of the Bibliography
- yes (78)
Keywords
- Microarray (3)
- Modellierung (3)
- Arabidopsis thaliana (2)
- Biomarker (2)
- Diabetes (2)
- Dynamik (2)
- Erosion (2)
- GPCR (2)
- Paläoklima (2)
- Serotonin (2)
Institute
- Institut für Biochemie und Biologie (24)
- Institut für Geowissenschaften (11)
- Institut für Physik und Astronomie (10)
- Institut für Ernährungswissenschaft (7)
- Institut für Chemie (5)
- Institut für Umweltwissenschaften und Geographie (5)
- Wirtschaftswissenschaften (3)
- Department Psychologie (2)
- Extern (2)
- Department Erziehungswissenschaft (1)
Hohe Leistungsansprüche im Wettkampfsport erfordern von den Athleten eine hohe sportliche Belastbarkeit. Möglichkeiten die Trainingsumfänge und -intensitäten zu erhöhen, sind z.T. ausgeschöpft. So bestehen nach wie vor Bestrebungen neue Wege zu finden, um mögliche Leistungsreserven zu erschließen. Elektrotherapieverfahren haben sich im klinischen Alltag, u.a. zur Behandlung von Traumata, bewährt und werden häufig zum Zweck der Analgesierung, Verbesserung der Gewebedurchblutung und zur Muskelstimulation angewandt. Deren Einsatz im adjuvanten Bereich der Trainingsbegleitung wurde bislang nur vereinzelt beschrieben. In der vorliegenden Studie wurden die Auswirkungen einer elektromagnetischen Anwendungsform auf ausgewählte psycho-physische Parameter untersucht (Kontrollgruppenvergleich mit placebokontrolliertem Design), um Aussagen über praxisrelevante Ansätze zur trainingsunterstützenden Betreuung abzuleiten. Es stellte sich die Frage, ob eine Intervention (15 x / 4 Wo.) mit frequenzmodulierten Wechselströmen im vorwiegend niederfrequenten Wirkungsspektrum (0-10000Hz, 5 μA / cm², CellVAS®) zu einer Beeinflussung der untersuchten Parameter führen und dahingehend nachhaltige leistungsfördernde oder -reduzierende Effekte erzielt werden könnten. Des Weiteren sollte geprüft werden, inwiefen die erhobenen Parameter (PWC170, Squat-Jump, Lateralflexion der Wirbelsäule und SF36®) aussagekräftig genug sind. Die Wirksamkeit des Applikationsform wurde im Prä-Post-Vergleich vor (T1), nach (T2) und 4 Wo. nach Abschluss (T3, Nachhaltigkeit) der Intervention analysiert. Die Teilnehmer der Kontrollgruppe erhielten vergleichbare Applikationen im Placebomodus. Das Probandenkollektiv bestand aus gesunden Leistungssportlern, deren Sportarten einen hohen Kraftausdaueranteil enthielten (n=127). Die Gruppenzuteilung erfolgte teilrandomisiert in Haupt- (HG) und Kontrollgruppe (KG). Zudem wurden die Gruppen zusätzlich geschlechtsspezifisch getrennt. Im Untersuchungsverlauf ließen sich Veränderungen für die Leistungsparameter PWC170 und Squat Jump erkennen. Inwiefern diese Abweichungen auf den Einfluss der Intervention mit frequenzmodulierten Wechselströmen im niederfrequenten Wirkungsspektrum zurückzuführen sind, konnte in dieser Untersuchung nicht eindeutig geklärt werden. Die nachgewiesenen Effekte ließen sich nach den zu Grunde liegenden wissenschaftlichen Standards nicht statistisch valide belegen. Der wissenschaftliche Nachweis einer mögliche Leistungsveränderung konnte nicht abschließend erbracht werden. Im therapeutischen Bereich hat die untersuchte Applikationsform, auf Basis der bestehen Studienlage, ihre Anwendung gefunden und kann bedenkenlos verwendet werden. Für den Einsatz als unterstützendes Verfahren in der sportlichen Praxis besteht nach wie vor Bedarf an validen, randomisierten Studien, die die Wirksamkeit der Applikationsform auf psycho-physische Parameter von Athleten nachhaltig belegen, bevor sie in der sportlichen Praxis Anwendung finden sollten.
Die acinösen Speicheldrüsen der Schabe Periplaneta americana sind reich durch serotonerge, dopaminerge und GABAerge Fasern innerviert. Die biogenen Amine Serotonin (5-HT) und Dopamin (DA) induzieren die Sekretion eines NaCl-haltigen Primärspeichels. Die physiologische Rolle der GABAergen Innervation des Drüsenkomplexes war bislang unbekannt. Weiterhin wurde vermutet, dass Tyramin (TA) und Octopamin (OA) an der Speichelbildung beteiligt sind. Mittels intrazellulärer Ableitungen von sekretorischen Acinuszellen mit und ohne Stimulierung des Speicheldrüsennervs (SDN) sollte daher die Wirkung von GABA, TA und OA im Speicheldrüsenkomplex untersucht werden. Intrazelluläre Ableitungen aus Acinuszellen zeigten, dass sowohl DA als auch 5 HT biphasische Änderungen des Membranpotentials induzierten. Diese bestanden aus einer initialen Hyperpolarisation und einer darauf folgenden transienten Depolarisation. Stimulierung des SDN mittels einer Saugelektrode verursachte ebenfalls biphasische Änderungen des Membranpotentials der Acinuszellen, die mit den DA- bzw. 5-HT-induzierten Änderungen kinetisch identisch waren. Dieses Ergebnis zeigte, dass die elektrische Stimulierung des SDN im Nerv-Speicheldrüsenpräparat eine verlässliche Methode zur Untersuchung der Wirkungen von Neuromodulatoren auf die dopaminerge und/oder sertotonerge Neurotransmission ist. Die Hyperpolarisation der DA-induzierten Potentialänderungen wurde durch eine intrazelluläre Ca2+-Freisetzung und die Öffnung basolateral lokalisierter Ca2+-gesteuerter K+-Kanäle verur-sacht. Die DA- und 5-HT-induzierte Depolarisation hing kritisch von der Aktivität eines basolateral lokalisierten Na+-K+-2Cl--Symporters ab. GABA, TA und OA potenzierten die elektrischen Antworten der Acinuszellen, wenn diese durch SDN-Stimulierung hervorgerufen wurden. Dabei war OA wirksamer als TA. Dieses Ergebnis zeigte, dass diese Substanzen als im Drüsenkomplex präsynaptisch und erregend als Neuromodulatoren wirken. Pharmakologische Untersuchungen ergaben, dass die erregende Wirkung von GABA durch einen G-Protein-gekoppelten GABAB-Rezeptor vermittelt wurde. Messungen der durch SDN-Stimulierung induzierten Flüssigkeits- und Proteinsekretionsraten zeigten, dass beide Parameter in Anwesenheit von GABA verstärkt waren. Dies ließ auf eine verstärkte serotonerge Neurotransmission schließen, da nur 5-HT die Bildung eines Protein-haltigen Speichels verursacht. Immuncytochemische Untersuchungen zeigten, dass die Drüsen tyraminerge und octopaminerge Innervation empfangen. Weiterhin wurde der erste charakterisierte TA-Rezeptor (PeaTYR1) der Schabe auf einem paarigen, lateral zur Drüse ziehenden Nerv markiert, der auch tyraminerge Fasern enthielt. Die vorliegende Arbeit trug zum Verständnis der komplexen Funktionsweise der Speicheldrüse der Schabe bei und erweiterte das lückenhafte Wissen über die neuronale Kontrolle exokriner Drüsen in Insekten.
This thesis considers on the one hand the construction of point processes via conditional intensities, motivated by the partial Integration of the Campbell measure of a point process. Under certain assumptions on the intensity the existence of such a point process is shown. A fundamental example turns out to be the Pólya sum process, whose conditional intensity is a generalisation of the Pólya urn dynamics. A Cox process representation for that point process is shown. A further process considered is a Poisson process of Gaussian loops, which represents a noninteracting particle system derived from the discussion of indistinguishable particles. Both processes are used to define particle systems locally, for which thermodynamic limits are determined.
This study presents noble gas compositions (He, Ne, Ar, Kr, and Xe) of lavas from several Hawaiian volcanoes. Lavas from the Hawaii Scientific Drilling Project (HSDP) core, surface samples from Mauna Kea, Mauna Loa, Kilauea, Hualalai, Kohala and Haleakala as well as lavas from a deep well on the summit of Kilauea were investigated. Noble gases, especially helium, are used as tracers for mantle reservoirs, based on the assumption that high 3He/4He ratios (>8 RA) represent material from the deep and supposedly less degassed mantle, whereas lower ratios (~ 8 RA) are thought to represent the upper mantle. Shield stage Mauna Kea, Kohala and Kilauea lavas yielded MORB-like to moderately high 3He/4He ratios, while 3He/4He ratios in post-shield stage Haleakala lavas are MORB-like. Few samples show 20Ne/22Ne and 21Ne/22Ne ratios different from the atmospheric values, however, Mauna Kea and Kilauea lavas with excess in mantle Ne agree well with the Loihi-Kilauea line in a neon three-isotope plot, whereas one Kohala sample plots on the MORB correlation line. The values in the 4He/40Ar* (40Ar* denotes radiogenic Ar) versus 4He diagram imply open system fractionation of He from Ar, with a deficiency in 4He. Calculated 4He/40Ar*, 3He/22Nes (22NeS denotes solar Ne) and 4He/21Ne ratios for the sample suite are lower than the respective production and primordial ratios, supporting the observation of a fractionation of He from the heavier noble gases, with a depletion of He with respect to Ne and Ar. The depletion of He is interpreted to be partly due to solubility controlled gas loss during magma ascent. However, the preferential He loss suggests that He is more incompatible than Ne and Ar during magmatic processes. In a binary mixing model, the isotopic He and Ne pattern are best explained by a mixture of a MORB-like end-member with a plume like or primordial end-member with a fractionation in 3He/22Ne, represented by a curve parameter r of 15 (r=(³He/²²Ne)MORB/(³He/²²Ne)PLUME or PRIMORDIAL). Whether the high 3He/4He ratios in Hawaiian lavas are indicative of a primitive component within the Hawaiian plume or are rather a product of the crystal-melt- partitioning behavior during partial melting remains to be resolved.
Das folgende Forschungsprojekt beschäftigt sich mit metakognitiven und motivationalen Fähigkeiten als Teilbereiche des selbstgesteuerten Lernens. Es untersucht den Nutzen und die Grenzen von Lerntagebüchern, die zugeschnitten wurden auf Grundschülerinnen und Grundschüler mit Migrationshintergrund. Das Ziel der Studie war es herauszufinden, ob und wie selbststeurungsbezogene Lernprozesse durch den Einsatz von Lerntagebüchern gemessen und verändert werden können. Hierzu führten 28 Grundschülerinnen und Grundschüler 14 Wochen lang während des Unterrichts ein halbstandardisiertes Lerntagebuch in Anlehnung an Wohland/Spinath (2004). Zur Messung von Veränderungen in metakognitiven und motivationalen Fähigkeiten füllten 43 Schülerinnen und Schüler zweier Experimentalgruppen und einer Kontrollgruppe vor und nach der Lerntagebuch-Intervention standardisierte Fragebögen aus. Weiterhin wurden die 28 Lerntagebücher der Experimentalgruppen inhalts- und prozessanalytisch ausgewertet. Außerdem wurden Interviews mit den Lehrkräften über ihre Unterrichtspraxis geführt und einige Schülerinnen und Schüler zu ihrer Wahrnehmung der Lerntagebucharbeit befragt. Die Ergebnisse der Analyse der Lerntagebuchdaten zeigen, dass die 28 Schülerinnen und Schüler mit Migrationshintergrund erfolgreich ihren Lernprozess bei der Bearbeitung einer Aufgabe verbalisierten. Sie haben weiterhin erfolgreich Vorhersagen über ihre Vorgehensweisen zur Lösung einer Aufgabe getroffen. Die Lerntagebücher unterstützten sie darin, ihre metakognitiven Erfahrungen (Efklides/Petkaki 2005) zu kalibrieren (Desoete/Roeyers 2006). Den Lernenden ist es gelungen, ihre Repräsentationen über das Lösen einer Aufgabe aufeinander (fein-) abzustimmen, während sie daran arbeiteten. Mit Hilfe von Zeitreihenanalysen konnte gezeigt werden, dass die Schülerinnen und Schüler die Fragen im Lerntagebuch gegen Ende der Intervention oberflächlicher beantworteten und die Lerntagebücher tendenziell weniger häufig ausgefüllt wurden (negative Trends). Eine Erklärung für die geringere Antworthäufigkeit, die zu negativen Verlaufskurven über die Zeit führten, könnte sein, dass die Instruktionsdichte durch den Mix an offenen und geschlossenen Fragen im Lerntagebuch zu hoch war. Die Lernenden haben sich möglicherweise so an die Fragen bzw. Antwortformate gewöhnt, dass die Motivation, in das Lerntagebuch zu schreiben, geringer wurde.
The recent discovery of an intricate and nontrivial interaction topology among the elements of a wide range of natural systems has altered the manner we understand complexity. For example, the axonal fibres transmitting electrical information between cortical regions form a network which is neither regular nor completely random. Their structure seems to follow functional principles to balance between segregation (functional specialisation) and integration. Cortical regions are clustered into modules specialised in processing different kinds of information, e.g. visual or auditory. However, in order to generate a global perception of the real world, the brain needs to integrate the distinct types of information. Where this integration happens, nobody knows. We have performed an extensive and detailed graph theoretical analysis of the cortico-cortical organisation in the brain of cats, trying to relate the individual and collective topological properties of the cortical areas to their function. We conclude that the cortex possesses a very rich communication structure, composed of a mixture of parallel and serial processing paths capable of accommodating dynamical processes with a wide variety of time scales. The communication paths between the sensory systems are not random, but largely mediated by a small set of areas. Far from acting as mere transmitters of information, these central areas are densely connected to each other, strongly indicating their functional role as integrators of the multisensory information. In the quest of uncovering the structure-function relationship of cortical networks, the peculiarities of this network have led us to continuously reconsider the stablished graph measures. For example, a normalised formalism to identify the “functional roles” of vertices in networks with community structure is proposed. The tools developed for this purpose open the door to novel community detection techniques which may also characterise the overlap between modules. The concept of integration has been revisited and adapted to the necessities of the network under study. Additionally, analytical and numerical methods have been introduced to facilitate understanding of the complicated statistical interrelations between the distinct network measures. These methods are helpful to construct new significance tests which may help to discriminate the relevant properties of real networks from side-effects of the evolutionary-growth processes.
Estetyczne myślenie w twórczości Andrzeja Stasiuka : w kontekście mityzacji Europy Wschodniej
(2009)
W pracy został przedstawiony innowacyjny sposób patrzenia na Europę Wschodnią, widoczny w twórczości Andrzeja Stasiuka odbiegający od klasycznego, czyli “równoleżnikowego” widzenia tej części kontynentu w odwiecznej konfrontacji i nieustannych porównań z Zachodem. Twórczość tego artysty skupia się na zaniedbanym ,,pasie południowym”. 1. Stan badań Twórczość pisarza cieszy się ogromną popularnością w kraju i za granicą. Krytyka literacka z wielką uwagą śledzi kolejno pojawiające się dzieła, niemniej jednak do tej pory stan badań jest stosunkowo niewielki. Nie powstało żadne kompendium wiedzy o wczesnej twórczości pisarza czy monograficzne opracowanie obejmujące ten sam okres twórczości artysty. Do tej pory uwaga krytyki i badaczy zwrócona została głównie na pierwsze utwory powstałe w latach dziewięćdziesiątych. 2. Cel pracy Głównym celem dysertacji była analiza twórczości Stasiuka w odniesieniu do zagadnień i problemów obecnych w filozofii i estetyce takich jak: kategoria piękna i brzydoty w ujęciu ontologicznym, metafizycznym i epistemologicznym, badanie wybranych utworów w kontekście niekonwencjonalnej autobiografii artystycznej, jak również nawiązanie do mityzacji Europy Wschodniej z odwołaniem się do prozy Brunona Schulza. Utworami łączącymi te zagadnienia ujmując chronologicznie są: „Opowieści galicyjskie”(1995), „Dukla”(1997), „Dziennik okrętowy”(2000), „Jadąc do Babadag”(2004). Teksty te łączy wspólny kontekst estetyczny, autobiograficzny, mityczny. 3. Podział i budowa pracy Niniejsza praca składa się z trzech części: pierwszej - „Estetyka brzydoty“, drugiej - „Homo geographicus Fascynacja geografią w kontekście autobiograficznym” stanowiącą pomost między kontekstem estetycznym i mitycznym oraz trzeciej: „Mityzacja Europy Wschodniej. Inspiracja Schulzem”. 4. Uwagi końcowe W zamykających na koniec wnioskach i uwagach warto podkreślić, że w pracy zostały poddane analizie problemy omijane przez wielu badaczy. Celem dysertacji było przedstawienie twórczości tego pisarza w niepodejmowanych do tej pory obszarach tematycznych. Spojrzenie na przedstawioną rzeczywistość i jej zjawiska tym razem w aspekcie estetycznym i mitycznym pozwoliły w zupełnie inny sposób spojrzeć na wybrane utwory Andrzeja Stasiuka.
The seismicity of the Dead Sea fault zone (DSFZ) during the last two millennia is characterized by a number of damaging and partly devastating earthquakes. These events pose a considerable seismic hazard and seismic risk to Syria, Lebanon, Palestine, Jordan, and Israel. The occurrence rates for large earthquakes along the DSFZ show indications to temporal changes in the long-term view. The aim of this thesis is to find out, if the occurrence rates of large earthquakes (Mw ≥ 6) in different parts of the DSFZ are time-dependent and how. The results are applied to probabilistic seismic hazard assessments (PSHA) in the DSFZ and neighboring areas. Therefore, four time-dependent statistical models (distributions), including Weibull, Gamma, Lognormal and Brownian Passage Time (BPT), are applied beside the exponential distribution (Poisson process) as the classical time-independent model. In order to make sure, if the earthquake occurrence rate follows a unimodal or a multimodal form, a nonparametric bootstrap test of multimodality has been done. A modified method of weighted Maximum Likelihood Estimation (MLE) is applied to estimate the parameters of the models. For the multimodal cases, an Expectation Maximization (EM) method is used in addition to the MLE method. The selection of the best model is done by two methods; the Bayesian Information Criterion (BIC) as well as a modified Kolmogorov-Smirnov goodness-of-fit test. Finally, the confidence intervals of the estimated parameters corresponding to the candidate models are calculated, using the bootstrap confidence sets. In this thesis, earthquakes with Mw ≥ 6 along the DSFZ, with a width of about 20 km and inside 29.5° ≤ latitude ≤ 37° are considered as the dataset. The completeness of this dataset is calculated since 300 A.D. The DSFZ has been divided into three sub zones; the southern, the central and the northern sub zone respectively. The central and the northern sub zones have been investigated but not the southern sub zone, because of the lack of sufficient data. The results of the thesis for the central part of the DSFZ show that the earthquake occurrence rate does not significantly pursue a multimodal form. There is also no considerable difference between the time-dependent and time-independent models. Since the time-independent model is easier to interpret, the earthquake occurrence rate in this sub zone has been estimated under the exponential distribution assumption (Poisson process) and will be considered as time-independent with the amount of 9.72 * 10-3 events/year. The northern part of the DSFZ is a special case, where the last earthquake has occurred in 1872 (about 137 years ago). However, the mean recurrence time of Mw ≥ 6 events in this area is about 51 years. Moreover, about 96 percent of the observed earthquake inter-event times (the time between two successive earthquakes) in the dataset regarding to this sub zone are smaller than 137 years. Therefore, it is a zone with an overdue earthquake. The results for this sub zone verify that the earthquake occurrence rate is strongly time-dependent, especially shortly after an earthquake occurrence. A bimodal Weibull-Weibull model has been selected as the best fit for this sub zone. The earthquake occurrence rate, corresponding to the selected model, is a smooth function of time and reveals two clusters within the time after an earthquake occurrence. The first cluster begins right after an earthquake occurrence, lasts about 80 years, and is explicitly time-dependent. The occurrence rate, regarding to this cluster, is considerably lower right after an earthquake occurrence, increases strongly during the following ten years and reaches its maximum about 0.024 events/year, then decreases over the next 70 years to its minimum about 0.0145 events/year. The second cluster begins 80 years after an earthquake occurrence and lasts until the next earthquake occurs. The earthquake occurrence rate, corresponding to this cluster, increases extremely slowly, such as it can be considered as an almost constant rate about 0.015 events/year. The results are applied to calculate the time-dependent PSHA in the northern part of the DSFZ and neighbouring areas.
This thesis presents investigations on sediments from two African lakes which have been recording changes in their surrounding environmental and climate conditions since more than 200,000 years. Focus of this work is the time of the last Glacial and the Holocene (the last ~100,000 years before present [in the following 100 kyr BP]). One important precondition for this kind of research is a good understanding of the present ecosystems in and around the lakes and of the sediment formation under modern climate conditions. Both studies therefore include investigations on the modern environment (including organisms, soils, rocks, lake water and sediments). A 90 m long sediment sequence was investigated from Lake Tswaing (north-eastern South Africa) using geochemical analyses. These investigations document alternating periods of high detrital input and low (especially autochthonous) organic matter content and periods of low detrital input, carbonatic or evaporitic sedimentation and high autochthonous organic matter content. These alternations are interpreted as changes between relatively humid and arid conditions, respectively. Before c. 75 kyr BP, they seem to follow changes in local insolation whereas afterwards they appear to be acyclic and are probably caused by changes in ocean circulation and/or in the mean position of the Inter-Tropical Convergence Zone (ITCZ). Today, these factors have main influence on precipitation in this area where rainfall occurs almost exclusively during austral summer. All modern organisms were analysed for their biomarker and bulk organic and compound-specific stable carbon isotope composition. The same investigations on sediments from the modern lake floor document the mixed input of the investigated individual organisms and reveal additional influences by methanotrophic bacteria. A comparison of modern sediment characteristics with those of sediments covering the time 14 to 2 kyr BP shows changes in the productivity of the lake and the surrounding vegetation which are best explained by changes in hydrology. More humid conditions are indicated for times older than 10 kyr BP and younger than 7.5 kyr BP, whereas arid conditions prevailed in between. These observations agree with the results from sediment composition and indications from other climate archives nearby. The second lake study deals with Lake Challa, a small, deep crater lake on the foot of Mount Kilimanjaro. In this lake form mm-scale laminated sediments which were analyses with micro-XRF scanning for changes in the element composition. By comparing these results with investigations on thin sections, results from ongoing sediment trap studies, meteorological data, and investigations on the surrounding rocks and soils, I develop a model for seasonal variability in the limnology and sedimentation of Lake Challa. The lake appears to be stratified during the warm rain seasons (October – December and March – May) during which detrital material is delivered to the lake and carbonates precipitate. On the lake floor forms a dark lamina with high contents of Fe and Ti and high Ca/Al and low Mn/Fe ratios. Diatoms bloom during the cool and windy season (June – September) when mixing down to c. 60 m depth provides easily bio-available nutrients. Contemporaneously, Fe and Mn-oxides are precipitating which cause high Mn/Fe ratios in the light diatom-rich laminae of the sediments. Trends in the Mn/Fe ratio of the sediments are interpreted to reflect changes in the intensity or duration of seasonal mixing in Lake Challa. This interpretation is supported by parallel changes in the organic matter and biogenic silica content observed in the 22 m long profile recovered from Lake Challa. This covers the time of the last 25 kyr BP. It documents a transition around 16 kyr BP from relatively well-mixed conditions with high detrital input during glacial times to stronger stratified conditions which are probably related to increasing lake levels in Challa and generally more humid conditions in East Africa. Intensified mixing is recorded for the time of the Younger Dryas and the period between 11.4 and 10.7 kyr BP. For these periods, reduced intensity of the SW monsoon and intensified NE monsoon are reported from archives of the Indian-Asian Monsoon region, arguing for the latter as a probable source for wind mixing in Lake Challa. This connection is probably also responsible for contemporaneous events in the Mn/Fe ratios of the Lake Challa sediments and in other records of northern hemisphere monsoon intensity during the Holocene and underlines the close interaction of global low latitude atmospheric circulation.
Übergewicht und Adipositas führen zu Insulinresistenz und erhöhen deutlich das Risiko für die Entwicklung von Typ-2-Diabetes und kardiovaskulären Erkrankungen. Sowohl Adipositas als auch die Suszeptibilität gegenüber Diabetes sind zu einem erheblichen Teil genetisch determiniert. Die relevanten Risikogene, deren Interaktion mit der Umwelt, insbesondere mit Bestandteilen der Nahrung, und die Pathomechanismen, die zur Insulinresistenz und Diabetes führen, sind nicht vollständig aufgeklärt. In der vorliegenden Arbeit sollte durch Genexpressionsanalysen des weißen Fettgewebes (WAT) und der Langerhansschen Inseln die Entstehung und Progression von Adipositas und Typ-2-Diabetes untersucht werden, um relevante Pathomechanismen und neue Kandidatengene zu identifizieren. Zu diesem Zweck wurden Diät-Interventionsstudien mit NZO- und verwandten NZL-Mäusen, zwei polygenen Mausmodellen für das humane metabolische Syndrom, durchgeführt. Eine kohlenhydrathaltige Hochfett-Diät (HF: 14,6 % Fettanteil) führte in beiden Mausmodellen zu früher Adipositas, Insulinresistenz und Typ 2 Diabetes. Eine fettreduzierte Standarddiät (SD: 3,3 % Fettanteil), welche die Entstehung von Adipositas und Diabetes stark verzögert, sowie eine diabetesprotektive kohlenhydratfreie Hochfett-Diät (CHF: 30,2 % Fettanteil) dienten als Kontrolldiäten. Mit Hilfe der Microarray-Technologie wurden genomweite Expressionsprofile des WAT erstellt. Pankreatische Inseln wurden durch laserbasierte Mikropräparation (Laser Capture Microdissection; LCM) isoliert und ebenfalls hinsichtlich ihres Expressionsprofils analysiert. Differenziell exprimierte Gene wurden durch Real-Time-PCR validiert. Im WAT der NZO-Maus bewirkte die HF-Diät eine reduzierte Expression nukleärer Gene der oxidativen Phosphorylierung und von lipogenen Enzymen. Dies deutet auf eine inadäquate Fettspeicherung und -verwertung in diesen Tieren hin. Die Reduktion in der Fettspeicherung und -oxidation ist spezifisch für das adipöse NZO-Modell und konnte bei der schlanken SJL Maus nicht beobachtet werden, was auf eine mögliche Beteiligung an der Entstehung der Insulinresistenz hinweist. Zusätzlich wurde bestätigt, dass die Expansion des Fettgewebes bei der adipösen NZO-Maus eine zeitlich verzögerte Infiltration von Makrophagen in das WAT und dort eine lokale Immunantwort auslöst. Darüber hinaus wurde die Methode der LCM etabliert und zur Gewinnung hochangereicherter RNA aus den Langerhansschen Inseln eingesetzt. In erstmalig durchgeführten genomweiten Expressionsanalysen wurde zu einem frühen Zeitpunkt in der Diabetesentwicklung der Einfluss einer diabetogenen HF-Diät und einer diabetesprotektiven CHF-Diät auf das Expressionsprofil von pankreatischen Inselzellen verglichen. Im Gegensatz zum WAT bewirkt die diabetogene HF-Diät in Inselzellen einerseits, eine erhöhte Expression von nukleären Genen für die oxidative Phosphorylierung und andererseits von Genen, die mit Zellproliferation assoziiert sind. Zudem wurden 37 bereits annotierte Gene identifiziert, deren differenzielle Expression mit der Diabetesentwicklung korreliert. Das Peptidhormon Cholecystokinin (Cck, 11,8-fach erhöht durch die HF) stellt eines der am stärksten herauf regulierten Gene dar. Die hohe Anreicherung der Cck-mRNA in Inselzellen deutet auf eine bisher unbekannte Funktion des Hormons in der Regulation der Inselzellproliferation hin. Der Transkriptionsfaktor Mlxipl (ChREBP; 3,8-fach erniedrigt durch die HF) stellt in Langerhansschen Inseln eines der am stärksten herunter regulierten Gene dar. Ferner wurde ChREBP, dessen Funktion als glucoseregulierter Transkriptionsfaktor für lipogene Enzyme bislang in der Leber, aber nicht in Inselzellen nachgewiesen werden konnte, erstmals immunhistochemisch in Inselzellen detektiert. Dies deutet auf eine neue, bisher unbekannte regulatorische Funktion von ChREBP im Glucosesensor-Mechanismus der Inselzellen hin. Eine durchgeführte Korrelation der mit der Diabetesentwicklung assoziierten, differenziell exprimierten Inselzellgene mit Genvarianten aus humanen genomweiten Assoziationsstudien für Typ-2-Diabetes (WTCCC, Broad-DGI-T2D-Studie) ermöglichte die Identifizierung von 24 neuartigen Diabetes-Kandidatengenen. Die Ergebnisse der erstmals am polygenen NZO-Mausmodell durchgeführten genomweiten Expressionsuntersuchungen bestätigen bisherige Befunde aus Mausmodellen für Adipositas und Diabetes (z.B. ob/ob- und db/db-Mäuse), zeigen in einigen Fällen aber auch Unterschiede auf. Insbesondere in der oxidativen Phosphorylierung könnten die Ergebnisse relevant sein für das Verständnis der Pathogenese des polygen-bedingten humanen metabolischen Syndroms.
There are many factors which make speaking and understanding a second language (L2) a highly complex challenge. Skills and competencies in in both linguistic and metalinguistic areas emerge as parts of a multi-faceted, flexible concept underlying bilingual/multilingual communication. On the linguistic level, a combination of an extended knowledge of idiomatic expressions, a broad lexical familiarity, a large vocabulary size, and the ability to deal with phonetic distinctions and fine phonetic detail has been argued necessary for effective nonnative comprehension of spoken language. The scientific interest in these factors has also led to more interest in the L2’s information structure, the way in which information is organised and packaged into informational units, both within and between clauses. On a practical level, the information structure of a language can offer the means to assign focus to a certain element considered important. Speakers can draw from a rich pool of linguistic means to express this focus, and listeners can in turn interpret these to guide them to the highlighted information which in turn facilitates comprehension, resulting in an appropriate understanding of what has been said. If a speaker doesn’t follow the principles of information structure, and the main accent in a sentence is placed on an unimportant word, then there may be inappropriate information transfer within the discourse, and misunderstandings. The concept of focus as part of the information structure of a language, the linguistic means used to express it, and the differential use of focus in native and nonnative language processing are central to this dissertation. Languages exhibit a wide range of ways of directing focus, including by prosodic means, by syntactic constructions, and by lexical means. The general principles underlying information structure seem to contrast structurally across different languages, and they can also differ in the way they express focus. In the context of L2 acquisition, characteristics of the L1 linguistic system are argued to influence the acquisition of the L2. Similarly, the conceptual patterns of information structure of the L1 may influence the organization of information in the L2. However, strategies and patterns used to exploit information structure for succesful language comprehension in the native L1, may not apply at all, or work in different ways or todifferent degrees in the L2. This means that L2 learners ideally have to understand the way that information structure is expressed in the L2 to fully use the information structural benefit in the L2. The knowledge of information structural requirements in the L2 could also imply that the learner would have to make adjustments regarding the use of information structural devices in the L2. The general question is whether the various means to mark focus in the learners’ native language are also accessible in the nonnative language, and whether a L1-L2 transfer of their usage should be considered desirable. The current work explores how information structure helps the listener to discover and structure the forms and meanings of the L2. The central hypothesis is that the ability to access information structure has an impact on the level of the learners’ appropriateness and linguistic competence in the L2. Ultimately, the ability to make use of information structure in the L2 is believed to underpin the L2 learners’ ability to effectively communicate in the L2. The present study investigated how use of focus markers affects processing speed and word recall recall in a native-nonnative language comparison. The predominant research question was whether the type of focus marking leads to more efficient and accurate word processing in marked structures than in unmarked structures, and whether differences in processing patterns can be observed between the two language conditions. Three perception studies were conducted, each concentrating on one of the following linguistic parameters: 1. Prosodic prominence: Does prosodic focus conveyed by sentence accent and by word position facilitate word recognition? 2. Syntactical means: Do cleft constructions result in faster and more accurate word processing? 3. Lexical means: Does focus conveyed by the particles even/only (German: sogar/nur) facilitate word processing and word recall? Experiments 2 and 3 additionally investigated the contribution of context in the form of preceding questions. Furthermore, they considered accent and its facilitative effect on the processing of words which are in the scope of syntactic or lexical focus marking. All three experiments tested German learners of English in a native German language condition and in English as their L2. Native English speakers were included as a control for the English language condition. Test materials consisted of single sentences, all dealing with bird life. Experiment 1 tested word recognition in three focus conditions (broad focus, narrow focus on the target, and narrow focus on a constituent than the target) in one condition using natural unmanipulated sentences, and in the other two conditions using spliced sentences. Experiment 2 (effect of syntactic focus marking) and Experiment 3 (effect of lexical focus marking) used phoneme monitoring as a measure for the speed of word processing. Additionally, a word recall test (4AFC) was conducted to assess the effective entry of target-bearing words in the listeners’ memory. Experiment 1: Focus marking by prosodic means Prosodic focus marking by pitch accent was found to highlight important information (Bolinger, 1972), making the accented word perceptually more prominent (Klatt, 1976; van Santen & Olive, 1990; Eefting, 1991; Koopmans-van Beinum & van Bergem, 1989). However, accent structure seems to be processed faster in native than in nonnative listening (Akker& Cutler, 2003, Expt. 3). Therefore, it is expected that prosodically marked words are better recognised than unmarked words, and that listeners can exploit accent structure better for accurate word recognition in their L1 than they do in the L2 (L1 > L2). Altogether, a difference in word recognition performance in L1 listening is expected between different focus conditions (narrow focus > broad focus). Results of Experiments 1 show that words were better recognized in native listening than in nonnative listening. Focal accent, however, doesn’t seem to help the German subjects recognize accented words more accurately, in both the L1 and the L2. This could be due to the focus conditions not being acoustically distinctive enough. Results of experiments with spliced materials suggest that the surrounding prosodic sentence contour made listeners remember a target word and not the local, prosodic realization of the word. Prosody seems to indeed direct listeners’ attention to the focus of the sentence (see Cutler, 1976). Regarding the salience of word position, VanPatten (2002; 2004) postulated a sentence location principle for L2 processing, stating a ranking of initial > final > medial word position. Other evidence mentions a processing adantage of items occurring late in the sentence (Akker & Cutler, 2003), and Rast (2003) observed in an English L2 production study a trend of an advantage of items occurring at the outer ends of the sentence. The current Experiment 1 aimed to keep the length of the sentences to an acceptable length, mainly to keep the task in the nonnative lnaguage condition feasable. Word length showed an effect only in combination with word position (Rast, 2003; Rast & Dommergues, 2003). Therefore, word length was included in the current experiment as a secondary factor and without hypotheses. Results of Experiment 1 revealed that the length of a word doesn’t seem to be important for its accurate recognition. Word position, specifically the final position, clearly seems to facilitate accurate word recognition in German. A similar trend emerges in condition English L2, confirming Klein (1984) and Slobin (1985). Results don’t support the sentence location principle of VanPatten (2002; 2004). The salience of the final position is interpreted as recency effect (Murdock, 1962). In addition, the advantage of the final position may benefit from the discourse convention that relevant background information is referred to first, and then what is novel later (Haviland & Clark, 1974). This structure is assumed to cue the listener as to what the speaker considers to be important information, and listeners might have reacted according to this convention. Experiment 2: Focus marking by syntactic means Atypical syntactic structures often draw listeners’ attention to certain information in an utterance, and the cleft structure as a focus marking device appears to be a common surface feature in many languages (Lambrecht, 2001). Surface structure influences sentence processing (Foss & Lynch, 1969; Langford & Holmes, 1979), which leads to competing hypotheses in Experiment 2: on the one hand, the focusing effect of the cleft construction might reduce processing times. On the other, cleft constructions in German were found to be used less to mark fo than in English (Ahlemeyer & Kohlhof, 1999; Doherty, 1999; E. Klein, 1988). The complexity of the constructions, and the experience from the native language might work against an advantage of the focus effect in the L2. Results of Experiment 2 show that the cleft structure is an effective device to mark focus in German L1. The processing advantage is explained by the low degree of structural markedness of cleft structures: listeners use the focus function of sentence types headed by the dummy subject es (English: it) due to reliance on 'safe' subject-prominent SVO-structures. The benefit of cleft is enhanced when the sentences are presented with context, suggesting a substantial benefit when focus effects of syntactic surface structure and coherence relation between sentences are integrated. Clefts facilitate word processing for English native speakers. Contrary to German L1, the marked cleft construction doesn’t reduce processing times in English L2. The L1-L2 difference was interpreted as a learner problem of applying specific linguistic structures according to the principles of information structure in the target language. Focus marking by cleft did not help German learners in native or in nonnative word recall. This could be attributed to the phonological similarity of the multiple choice options (Conrad & Hull, 1964), and to a long time span between listening and recall (Birch & Garnsey, 1995; McKoon et al., 1993). Experiment 3: Focus marking by lexical means Focus particles are elements of structure that can indicate focus (König, 1991), and their function is to emphasize a certain part of the sentence (Paterson et al., 1999). I argue that the focus particles even/only (German: sogar/nur) evoke contrast sets of alternatives resp. complements to the element in focus (Ni et al., 1996), which causes interpretations of context. Therefore, lexical focus marking isn’t expected to lead to faster word processing. However, since different mechanisms of encoding seem to underlie word memory, a benefit of the focusing function of particles is expected to show in the recall task: due to focus particles being a preferred and well-used feature for native speakers of German, a transfer of this habitualness is expected, resulting in a better recall of focused words. Results indicated that focus particles seem to be the weakest option to mark focus: Focus marking by lexical particle don’t seem to reduce word processing times in either German L1, English L2, or in English L1. The presence of focus particles is likely to instantiate a complex discourse model which lets the listener await further modifying information (Liversedge et al., 2002). This semantic complexity might slow down processing. There are no indications that focus particles facilitate native language word recall in German L1 and English L1. This could be because focus particles open sets of conditions and contexts that enlarge the set of representations in listeners rather than narrowing it down to the element in the scope of the focus particle. In word recall, the facilitative effect of focus particles emerges only in the nonnative language condition. It is suggested that L2 learners, when faced with more demanding tasks in an L2, use a broad variety of means that identify focus for a better representation of novel words in the memory. In Experiments 2 and 3, evidence suggests that accent is an important factor for efficient word processing and accurate recall in German L1 and English L1, but less so in English L2. This underlines the function of accent as core speech parameter and consistent cue to the perception of prominence native language use (see Cutler & Fodor, 1979; Pitt & Samuel, 1990a; Eriksson et al., 2002; Akker & Cutler, 2003); the L1-L2 difference is attributed to patterns of expectation that are employed in the L1 but not (yet?) in the L2. There seems to exist a fine-tuned sensitivity to how accents are distributed in the native language, listeners expect an appropriate distribution and interpret it accordingly (Eefting, 1991). This pleads for accent placement as extremely important to L2 proficiency; the current results also suggest that accent and its relationship with other speech parameters has to be newly established in the L2 to fully reveal its benefits for efficient processing of speech. There is evidence that additional context facilitates processing of complex syntactic structures but that a surplus of information has no effect if the sentence construction is less challenging for the listener. The increased amount of information to be processed seems to impede better word recall, particularly in the L2. Altogether, it seems that focus marking devices and context can combine to form an advantageous alliance: a substantial benefit in processing efficiency is found when parameters of focus marking and sentence coherence are integrated. L2 research advocates the beneficial aspects of providing context for efficient L2 word learning (Lawson & Hogben, 1996). The current thesis promotes the view that a context which offers more semantic, prosodic, or lexical connections might compensate for the additional processing load that context constitutes for the listeners. A methodological consideration concerns the order in which language conditions are presented to listeners, i.e., L1-L2 or L2-L1. Findings suggest that presentation order could enforce a learning bias, with the performance in the second experiment being influenced by knowledge acquired in the first (see Akker & Cutler, 2003). To conclude this work: The results of the present study suggest that information structure is more accessible in the native language than it is in the nonnative language. There is, however, some evidence that L2 learners have an understanding of the significance of some information-structural parameters of focus marking. This has a beneficial effect on processing efficiency and recall accuracy; on the cognitive side it illustrates the benefits and also the need of a dynamic exchange of information-structural organization between L1 and L2. The findings of the current thesis encourage the view that an understanding of information structure can help the learner to discover and categorise forms and meanings of the L2. Information structure thus emerges as a valuable resource to advance proficiency in a second language.
Wenn in einem verbrannten Gebäude, in dem sich unliebsame Untermieter breit gemacht haben, diese damit beginnen, Stein für Stein das restliche Gemäuer abzutragen, um die verbliebenen Fenster zuzumauern, wird es Zeit, mit mehr oder weniger freundlichen Worten die Bewohner des Hauses zu verweisen, die nur verhindern, dass sich neue Besucher dem Gelände nähern. Dafür muss freilich alter und neuer Behang von den Wänden genommen werden; und eben durch die Verbannung all dessen, was nicht an diesen Ort gehört, kann ein freundliches Bild des Dichters Friedrich Hölderlin erhalten bleiben, der nicht nur poetisch, sondern auch zwischenmenschlich einigen bedeutenden Persönlichkeiten seiner Zeit im Wege stand, was ihm wohl in beiden Aspekten zum Verhängnis geworden ist, weil er sich weder verwandtschaftlich noch im Rahmen des poetischen Geschäfts gegen seine intrigante Umgebung zur Wehr zu setzen wusste. Der etwas länger geratene Aufsatz „So sind die Zeichen in der Welt“ soll weder ein neues Heiligenbild schaffen noch einen frisch aus der Tasche gezogenen Popstar zum Liebhaben, sondern will behutsam einige Fresken des Gedankengebäudes Hölderlin für diejenigen freilegen, deren Bild des Dichters noch nicht völlig von der Vorstellung des wahnsinnig gewordenen Dichters übertüncht worden ist. Obwohl sich die Arbeit damit ganz bewusst den Hölderlin - Studien von Pierre Bertaux anschließt, setzt sie sich auch mit dieser Wahrnehmungslinie kritisch auseinander, indem sie neben biographischen Anmerkungen auch stil- und ideologiekritische Methoden einsetzt, um die manchmal unübersichtliche Quellenlage ein wenig durchsichtiger zu machen, als dies bisher der Fall ist. Über eine solche, in Einzelheiten vielleicht unorthodox wirkende Darstellung hinaus will die Arbeit die Behandlungsmöglichkeit von Friedrich Hölderlin im Deutschunterricht des Gymnasiums nahe legen, weil selbst Jüngeres über ihn behandelt wird, das darauf hinweist, inwiefern die Marginalisierung dieses Poeten damit zu tun hat, dass er während eines langen Abschnitts der Literaturgeschichte auch dafür verantwortlich gemacht wurde, was er weder geschrieben hat noch meinte. Die Intention der Arbeit besteht insgesamt in der Vorstellung, das Gedankengut Hölderlins müsse aus dem breiten Strom einer konservativen Wahrnehmungstradition entfernt werden (zu der beispielsweise auch die dramatische Hölderlin - Bearbeitung E. Jelineks Wolken.Heim. gezählt werden kann, selbst wenn sie widerborstig gemeint sein sollte) und dieser Dichter sei als realistischer Denker zu restaurieren, der sich deshalb dem Literaturbetrieb seiner Zeit entgezogen hat, weil er, selbst der Lebensführung nach, sehr früh die Bewegungen gegen französische Aufklärung und Revolution begriffen hat – und von deren massiver Ablehnung Hölderlin bis heute getroffen wird. Da Friedrich Hölderlin aber nicht nur ideologischer Betrachtung, Kritik und Verfälschung ausgesetzt ist, sondern auch regelmäßig Gegenstand umfangreicher biographisch - psychologischer Spekulationen darstellt, wurde dieser Aspekt nicht nur bezogen auf die Rezeptionsgeschichte untersucht, sondern am Gegenstand selbst. In diesem Zusammenhang konnte nicht nur eine bislang vernachlässigte Beziehung Hölderlins zu Sophie Mereau rekonstruiert und der Verdacht zurückgewiesen werden, es habe zur selben Zeit eine homoerotische Beziehung zu Isaak Sinclair bestanden, vielmehr gelang auch der Nachweis, dass das Verhältnis des Dichters zu Susette Gontard weder singulär noch konkurrenzlos gewesen ist, weshalb sich eine eindeutige Zuordnung dieser Frau zur poetischen Figur der Diotima verbietet. Dazu wurde einerseits der Umstand entmythologisiert, nach dem die Liebe zur Frankfurter Zeit platonisch betrieben wurde, andererseits aber diese Affaire den Verhältnissen Hölderlins zu anderen Frauen zugeordnet, mit denen sich Frau Gontard – letztlich erfolglos – dadurch auseinander zu setzen versuchte, dass sie die Rolle Diotimas okkupierte. Dabei ließ sich schließlich der Verdacht erhärten, die stabilste Bindung des Dichters an eine Frau sei die zur eigenen Schwester Heinrike gewesen, mit der bis zum Bruch von Bordeaux aus zwar unregelmäßig, aber emotional immer wieder ausufernde Briefe getauscht wurden. Es ist nicht ohne Ironie, wenn ausgerechnet im vielleicht bekanntesten Gedicht Hölderlins, der „Hälfte des Lebens“, in dem regelmäßig ein bedeutender philosophischer Entwurf gesehen wird, Rudimente eines Textes enthalten sind, der – eindeutig erotisch konnotiert – an die eigene Schwester gerichtet ist.
Classical semiconductor physics has been continuously improving electronic components such as diodes, light-emitting diodes, solar cells and transistors based on highly purified inorganic crystals over the past decades. Organic semiconductors, notably polymeric, are a comparatively young field of research, the first light-emitting diode based on conjugated polymers having been demonstrated in 1990. Polymeric semiconductors are of tremendous interest for high-volume, low-cost manufacturing ("printed electronics"). Due to their rather simple device structure mostly comprising only one or two functional layers, polymeric diodes are much more difficult to optimize compared to small-molecular organic devices. Usually, functions such as charge injection and transport are handled by the same material which thus needs to be highly optimized. The present work contributes to expanding the knowledge on the physical mechanisms determining device performance by analyzing the role of charge injection and transport on device efficiency for blue and white-emitting devices, based on commercially relevant spiro-linked polyfluorene derivatives. It is shown that such polymers can act as very efficient electron conductors and that interface effects such as charge trapping play the key role in determining the overall device efficiency. This work contributes to the knowledge of how charges drift through the polymer layer to finally find neutral emissive trap states and thus allows a quantitative prediction of the emission color of multichromophoric systems, compatible with the observed color shifts upon driving voltage and temperature variation as well as with electrical conditioning effects. In a more methodically oriented part, it is demonstrated that the transient device emission observed upon terminating the driving voltage can be used to monitor the decay of geminately-bound species as well as to determine trapped charge densities. This enables direct comparisons with numerical simulations based on the known properties of charge injection, transport and recombination. The method of charge extraction under linear increasing voltages (CELIV) is investigated in some detail, correcting for errors in the published approach and highlighting the role of non-idealized conditions typically present in experiments. An improved method is suggested to determine the field dependence of charge mobility in a more accurate way. Finally, it is shown that the neglect of charge recombination has led to a misunderstanding of experimental results in terms of a time-dependent mobility relaxation.
Der ubiquitär exprimierte, multifunktionale Glucosetransporter GLUT8 gehört zur Klasse III der Familie der passiven Glucosetransporter, die aus insgesamt 14 Proteinen besteht. Die fünf Mitglieder der Klasse IIII unterscheiden sich strukturell leicht von den Mitgliedern der Klasse I und II (Joost und Thorens, 2001). GLUT8 besitzt ein N-terminales Dileucin-Motiv, das Teil eines [DE]XXXL[LI] Motivs ist, welches für die Sortierung des Transporters in späte Endosomen und Lysosomen verantwortlich ist (Augustin et al., 2005). Da bis heute kein Signal identifiziert wurde, das eine Translokation des Transporters zur Plasmamembran auslöst, wird eine intrazelluläre Funktion von GLUT8 vermutet (Widmer et al., 2005). Im Rahmen der vorliegenden Arbeit wurde die intrazelluläre Funktion des Transporters in der Regulation der Glucosehomöostase des Körpers durch Analyse einer Slc2a8-knockout-Maus untersucht. Die homozygote Deletion des Transporters erbrachte lebensfähige Nachkommen, die sich augenscheinlich nicht von ihren Wildtyp-Geschwistern unterschieden. Allerdings wurde bei Verpaarungen heterozygoter Mäuse eine verminderte Anzahl an Slc2a8-/--Nachkommen beobachtet, die signifikant von der erwarteten Mendel’schen Verteilung abwich. Da Slc2a8 die höchste mRNA-Expression in den Testes aufwies und die Überprüfung der Fertilität mittels verschiedener homozygoter Verpaarungen eine Störung der weiblichen Fortpflanzungsfähigkeit ausschloss, wurden die Spermatozoen der Slc2a8-/--Mäuse eingehender untersucht. Als Ursache für die verringerte Anzahl von Slc2a8-/--Geburten wurde eine verminderte Prozentzahl motiler Slc2a8-/--Spermien ermittelt, die durch eine unzureichende mitochondriale Kondensation in den Spermien bedingt war. Diese Veränderung war mit einem reduzierten mitochondrialen Membranpotential assoziiert, was eine verminderte ATP-Produktion nach sich zog. Somit scheint GLUT8 in den Spermien an einem intrazellulären Transportprozess beteiligt zu sein, der einen Einfluss auf die oxidative Phosphorylierung der Mitochondrien ausübt. Im Gehirn wurde Slc2a8 besonders stark im Hippocampus exprimiert, der in der Regulation von körperlicher Aktivität, Explorationsverhalten, Erinnerungs- und Lernprozessen sowie Angst- und Stressreaktionen eine Rolle spielt. Außerdem wurde GLUT8 im Hypothalamus nachgewiesen, der unter anderem an der Regulation der Nahrungsaufnahme beteiligt ist. Die Slc2a8-/--Mäuse zeigten im Vergleich zu ihren Slc2a8+/+-Geschwistern eine signifikant gesteigerte körperliche Aktivität, die zusammen mit der von Membrez et al. (2006) publizierten erhöhten Zellproliferation im Hippocampus auf eine Nährstoffunterversorgung dieses Areals hindeutet. Die Nahrungsaufnahme war in Abwesenheit von GLUT8 nicht verändert, was zusammen mit dem nur geringfügig niedrigeren Körpergewicht der Slc2a8-/--Mäuse eine Funktion von GLUT8 im Glucose-sensing der Glucose-sensitiven Neurone des Gehirns ausschließt. Das leicht reduzierte Körpergewicht der Slc2a8-/--Mäuse ließ sich keinem bestimmten Organ- oder Gewebetyp zuordnen, sondern schien durch eine marginale Gewichtsreduktion aller untersuchten Gewebe bedingt zu sein. Zusammen mit den erniedrigten Blutglucosespiegeln und der anscheinend gesteigerten Lebenserwartung zeigten die Slc2a8-/--Mäuse Symptome einer leichten Nährstoffunterversorgung. GLUT8 scheint daher am Transport von Zuckerderivaten, die während des lysosomalen/endosomalen Abbaus von Glykoproteinen anfallen, beteiligt zu sein. Die so wiederaufbereiteten Zucker dienen dem Körper offenbar als zusätzliche Energiequelle.
Vitamin E wird immer noch als das wichtigste lipophile Antioxidanz in biologischen Membranen betrachtet. In den letzten Jahren hat sich jedoch der Schwerpunkt der Vitamin E-Forschung hin zu den nicht-antioxidativen Funktionen verlagert. Besonderes Interesse gilt dabei dem α-Tocopherol, der häufigsten Vitamin E-Form im Gewebe von Säugetieren, und seiner Rolle bei der Regulation der Genexpression. Das Ziel dieser Dissertation war die Untersuchung der genregulatorischen Funktionen von α-Tocoperol und die Identifizierung α-Tocopherol-sensitiver Gene in vivo. Zu diesem Zweck wurden Mäuse mit verschiedenen Mengen α-Tocopherol gefüttert. Die Analyse der hepatischen Genexpression mit Hilfe von DNA-Microarrays identifizierte 387 α-Tocopherol-sensitive Gene. Funktionelle Clusteranalysen der differentiell exprimierten Gene zeigten einen Einfluss von α-Tocooherol auf zelluläre Transportprozesse. Besonders solche Gene, die an vesikulären Transportvorgängen beteiligt sind, wurden größtenteils durch α-Tocopherol hochreguliert. Für Syntaxin 1C, Vesicle-associated membrane protein 1, N-ethylmaleimide-sensitive factor and Syntaxin binding protein 1 konnte eine erhöhte Expression mittels real time PCR bestätigt werden. Ein funktioneller Einfluss von α-Tocopherol auf vesikuläre Transportprozesse konnte mit Hilfe des in vitro β-Hexosaminidase Assays in der sekretorischen Mastzelllinie RBL-2H3 gezeigt werden. Die Inkubation der Zellen mit α-Tocopherol resultierte in einer konzentrationsabhängigen Erhöhung der PMA/Ionomycin-stimulierten Sekretion der β-Hexosaminidase. Eine erhöhte Expression ausgewählter Gene, die an der Degranulation beteiligt sind, konnte nicht beobachtet werden. Damit schien ein direkter genregulatorischer Effekt von α-Tocopherol eher unwahrscheinlich. Da eine erhöhte Sekretion auch mit β-Tocopherol aber nicht mit Trolox, einem hydrophilen Vitamin E-Analogon, gefunden wurde, wurde vermutet, dass α-Tocopherol die Degranulation möglicherweise durch seine membranständige Lokalisation beeinflussen könnte. Die Inkubation der Zellen mit α-Tocopherol resultierte in einer veränderten Verteilung des Gangliosids GM1, einem Lipid raft Marker. Es wird angenommen, dass diese Membranmikrodomänen als Plattformen für Signaltransduktionsvorgänge fungieren. Ein möglicher Einfluss von Vitamin E auf die Rekrutierung/Translokation von Signalproteinen in Membranmikrodomänen könnte die beobachteten Effekte erklären. Eine Rolle von α-Tocopherol im vesikulären Transport könnte nicht nur seine eigene Absorption und seinen Transport beeinflussen, sondern auch eine Erklärung für die bei schwerer Vitamin E-Defizienz auftretenden neuronalen Dysfunktionen bieten. Im zweiten Teil der Arbeit wurde die α-Tocopheroltransferprotein (Ttpa) Knockout-Maus als genetisches Modell für Vitamin E-Defizienz verwendet, um den Effekt von Ttpa auf die Genexpression und die Gewebeverteilung von α-Tocopherol zu analysieren. Ttpa ist ein cytosolisches Protein, das für die selektive Retention von α-Tocopherol in der Leber verantwortlich ist. Die Ttpa-Defizienz resultierte in sehr geringen α-Tocopherol-Konzentrationen im Plasma und den extrahepatischen Geweben. Die Analyse der α-Tocopherol-Gehalte im Gehirn wies auf eine Rolle von Ttpa bei der α-Tocopherol-Aufnahme ins Gehirn hin.
Der Streifenkiwi (Apteryx mantelli) kommt im Freiland nur auf der Nordinsel Neuseelands vor. Aufgrund des gefährdeten Bestands ist eine sich selbst erhaltene Zoopopulation wichtig. Kenntnisse des Verhaltens helfen, die Ansprüche der Tiere zu verstehen. Zudem können sie darüber Auskunft geben, inwiefern das Wohlbefinden eines Tieres gegeben ist. Durch die Untersuchung der Brutaktivität sollte ein Überblick über den allgemeinen Verlauf der Brut gegeben und Aktivitätsmuster für den Berliner Hahn erarbeitet werden, um den Verlauf zukünftiger Bruten einschätzen und eventuell positiv beeinflussen zu können. Dazu kamen die Untersuchung der täglichen Aktivität einer Henne sowie Beobachtungen des Verhaltens der Tiere. Diese dienten der Bestandsaufnahme der gezeigten Verhaltensweisen und sollten zusammen mit der Aktivität die Grundlage zur Einschätzung bilden, ob die Ansprüche der Kiwis im Zoo Berlin erfüllt werden, und Hinweise zur Verbesserung der Haltung geben. Die Brutaktivität des Hahnes konnte über drei Brutperioden hinweg detailliert dargestellt werden und zeigte, dass nicht nur innerhalb der Art sondern bei einem einzigen Tier unter ähnlichen Bedingungen die Variabilität so groß sein kann, dass sie für Vorhersagen über den Erfolg einer Brut nicht geeignet ist. Im Zusammenhang mit der Aktivität der Henne ließen sich keine Auffälligkeiten erkennen, die auf eine allgemeine Störung der Tiere schließen lassen oder für eine Beeinträchtigung der Brut verantwortlich gemacht werden könnten. Soweit aus den Beobachtungen im Freiland geschlossen werden kann, scheinen die Kiwis im Zoo ein weitgehend natürliches Verhalten zu zeigen. Die Haltungsbedingungen scheinen den Ansprüchen der Tiere zu entsprechen. Es ließen sich nur bedingt Strategien entwickeln, um die Bedingungen für die Brut und damit für die Nachzucht zu verbessern, da sich die Aktivität des Hahnes während der Brut von Jahr zu Jahr als unerwartet variabel erwies. Für ein weiteres Verständnis des Brutverhaltens und eine mögliche Verbesserung der Bedingungen wäre eine Untersuchung zum Einfluss verschiedener Umweltfaktoren auf die Brutaktivität des Hahnes wünschenswert.
The present thesis aims to introduce process-based model for species range dynamics that can be fitted to abundance data. For this purpose, the well-studied Proteaceae species of the South African Cape Floristic Region (CFR) offer a great data set to fit process-based models. These species are subject to wildflower harvesting and environmental threats like habitat loss and climate change. The general introduction of this thesis presents shortly the available models for species distribution modelling. Subsequently, it presents the feasibility of process-based modelling. Finally, it introduces the study system as well as the objectives and layout. In Chapter 1, I present the process-based model for range dynamics and a statistical framework to fit it to abundance distribution data. The model has a spatially-explicit demographic submodel (describing dispersal, reproduction, mortality and local extinction) and an observation submodel (describing imperfect detection of individuals). The demographic submodel links species-specific habitat models describing the suitable habitat and process-based demographic models that consider local dynamics and anemochoric seed dispersal between populations. After testing the fitting framework with simulated data, I applied it to eight Proteaceae species with different demographic properties. Moreover, I assess the role of two other demographic mechanisms: positive (Allee effects) and negative density-dependence. Results indicate that Allee effects and overcompensatory local dynamics (including chaotic behaviour) seem to be important for several species. Most parameter estimates quantitatively agreed with independent data. Hence, the presented approach seemed to suit the demand of investigating non-equilibrium scenarios involving wildflower harvesting (Chapter 2) and environmental change (Chapter 3). The Chapter 2 addresses the impacts of wildflower harvesting. The chapter includes a sensitivity analysis over multiple spatial scales and demographic properties (dispersal ability, strength of Allee effects, maximum reproductive rate, adult mortality, local extinction probability and carrying capacity). Subsequently, harvesting effects are investigated on real case study species. Plant response to harvesting showed abrupt threshold behavior. Species with short-distance seed dispersal, strong Allee effects, low maximum reproductive rate, high mortality and high local extinction are most affected by harvesting. Larger spatial scales benefit species response, but the thresholds become sharper. The three case study species supported very low to moderate harvesting rates. Summarizing, demographic knowledge about the study system and careful identification of the spatial scale of interest should guide harvesting assessments and conservation of exploited species. The sensitivity analysis’ results can be used to qualitatively assess harvesting impacts for poorly studied species. I investigated in Chapter 3 the consequences of past habitat loss, future climate change and their interaction on plant response. I use the species-specific estimates of the best model describing local dynamics obtained in Chapter 1. Both habitat loss and climate change had strong negative impacts on species dynamics. Climate change affected mainly range size and range filling due to habitat reductions and shifts combined with low colonization. Habitat loss affected mostly local abundances. The scenario with both habitat loss and climate change was the worst for most species. However, this impact was better than expected by simple summing of separate effects of habitat loss and climate change. This is explained by shifting ranges to areas less affected by humans. Range size response was well predicted by the strength of environmental change, whereas range filling and local abundance responses were better explained by demographic properties. Hence, risk assessments under global change should consider demographic properties. Most surviving populations were restricted to refugia, serving as key conservation focus.The findings obtained for the study system as well as the advantages, limitations and potentials of the model presented here are further discussed in the General Discussion. In summary, the results indicate that 1) process-based demographic models for range dynamics can be fitted to data; 2) demographic processes improve species distribution models; 3) different species are subject to different processes and respond differently to environmental change and exploitation; 4) density regulation type and Allee effects should be considered when investigating range dynamics of species; 5) the consequences of wildflower harvesting, habitat loss and climate change could be disastrous for some species, but impacts vary depending on demographic properties; 6) wildflower harvesting impacts varies over spatial scale; 7) The effects of habitat loss and climate change are not always additive.
Due to the unique environmental conditions and different feedback mechanisms, the Arctic region is especially sensitive to climate changes. The influence of clouds on the radiation budget is substantial, but difficult to quantify and parameterize in models. In the framework of the PhD, elastic backscatter and depolarization lidar observations of Arctic clouds were performed during the international Arctic Study of Tropospheric Aerosol, Clouds and Radiation (ASTAR) from Svalbard in March and April 2007. Clouds were probed above the inaccessible Arctic Ocean with a combination of airborne instruments: The Airborne Mobile Aerosol Lidar (AMALi) of the Alfred Wegener Institute for Polar and Marine Research provided information on the vertical and horizontal extent of clouds along the flight track, optical properties (backscatter coefficient), and cloud thermodynamic phase. From the data obtained by the spectral albedometer (University of Mainz), the cloud phase and cloud optical thickness was deduced. Furthermore, in situ observations with the Polar Nephelometer, Cloud Particle Imager and Forward Scattering Spectrometer Probe (Laboratoire de Météorologie Physique, France) provided information on the microphysical properties, cloud particle size and shape, concentration, extinction, liquid and ice water content. In the thesis, a data set of four flights is analyzed and interpreted. The lidar observations served to detect atmospheric structures of interest, which were then probed by in situ technique. With this method, an optically subvisible ice cloud was characterized by the ensemble of instruments (10 April 2007). Radiative transfer simulations based on the lidar, radiation and in situ measurements allowed the calculation of the cloud forcing, amounting to -0.4 W m-2. This slight surface cooling is negligible on a local scale. However, thin Arctic clouds have been reported more frequently in winter time, when the clouds' effect on longwave radiation (a surface warming of 2.8 W m-2) is not balanced by the reduced shortwave radiation (surface cooling). Boundary layer mixed-phase clouds were analyzed for two days (8 and 9 April 2007). The typical structure consisting of a predominantly liquid water layer on cloud top and ice crystals below were confirmed by all instruments. The lidar observations were compared to European Centre for Medium-Range Weather Forecasts (ECMWF) meteorological analyses. A change of air masses along the flight track was evidenced in the airborne data by a small completely glaciated cloud part within the mixed-phase cloud system. This indicates that the updraft necessary for the formation of new cloud droplets at cloud top is disturbed by the mixing processes. The measurements served to quantify the shortcomings of the ECMWF model to describe mixed-phase clouds. As the partitioning of cloud condensate into liquid and ice water is done by a diagnostic equation based on temperature, the cloud structures consisting of a liquid cloud top layer and ice below could not be reproduced correctly. A small amount of liquid water was calculated for the lowest (and warmest) part of the cloud only. Further, the liquid water content was underestimated by an order of magnitude compared to in situ observations. The airborne lidar observations of 9 April 2007 were compared to space borne lidar data on board of the satellite Cloud-Aerosol Lidar and Infrared Pathfinder Satellite Observations (CALIPSO). The systems agreed about the increase of cloud top height along the same flight track. However, during the time delay of 1 h between the lidar measurements, advection and cloud processing took place, and a detailed comparison of small-scale cloud structures was not possible. A double layer cloud at an altitude of 4 km was observed with lidar at the West coast in the direct vicinity of Svalbard (14 April 2007). The cloud system consisted of two geometrically thin liquid cloud layers (each 150 m thick) with ice below each layer. While the upper one was possibly formed by orographic lifting under the influence of westerly winds, or by the vertical wind shear shown by ECMWF analyses, the lower one might be the result of evaporating precipitation out of the upper layer. The existence of ice precipitation between the two layers supports the hypothesis that humidity released from evaporating precipitation was cooled and consequently condensed as it experienced the radiative cooling from the upper layer. In summary, a unique data set characterizing tropospheric Arctic clouds was collected with lidar, in situ and radiation instruments. The joint evaluation with meteorological analyses allowed a detailed insight in cloud properties, cloud evolution processes and radiative effects.
Eine besondere Rolle im Fremdstoffmetabolismus hat die SULT1A1 beim Menschen aufgrund der hohen Expression und breiten Gewebeverteilung. Während die humane SULT1A1 in sehr vielen Geweben exprimiert wird, wurde die murine SULT1A1 vor allem in der Leber, Lunge und Colon gefunden. Neben der Gewebeverteilung spielt auch der Polymorphismus im humanen SULT1A1-Gen eine bedeutende Rolle. Der häufigste Polymorphismus in diesem Gen führt zu einer Aminosäuresubstitution von Arginin zu Histidin an Position 213. Die Genvariante mit Histidin (auch als SULT1A1*2 bezeichnet) codiert für ein Protein mit einer geringen Enzymaktivität und einer reduzierten Enzymmenge in Thrombocyten. Über den Einfluss dieser allelischen Varianten in anderen Geweben ist bislang wenig bekannt. In vorausgegangenen epidemiologischen Studien wurden mögliche Korrelationen zwischen den Genvarianten und der Krebsentstehung in verschiedenen Geweben untersucht. Diese Daten liefern jedoch widersprüchliche Ergebnisse zum Krebsrisiko. Aufgrund der strittigen epidemiologischen Daten sollten Tiermodelle generiert werden, um die häufigsten SULT1A1-Allele hinsichtlich der Empfindlichkeit gegenüber Nahrungs- und Umweltkanzerogenen zu untersuchen. Zur Erzeugung transgener (tg) Mauslinien wurde mittels Mikroinjektion der codierenden Genbereich und große flankierende Humansequenzen stromaufwärts und stromabwärts in das Mausgenom integriert. Es wurden mehrere Mauslinien hergestellt. Zwei davon, die Mauslinie 31 mit dem SULT1A1*1-Allel und die Mauslinie 28 mit dem SULT1A1*2-Allel, wurden eingehend analysiert. In beiden Linien wurde eine identische Kopienzahl des Transgens ermittelt. Proteinbiochemische Charakterisierungen zeigten eine weitgehend dem Menschen entsprechende Gewebeverteilung und zelluläre und subzelluläre Lokalisation der humanen SULT1A1 in der Linie (Li) 28. In Li 31 wurden Unterschiede zu Li 28 sowohl in der Gewebeverteilung als auch in der zellulären Lokalisation des exprimierten humanen Proteins ermittelt. Dabei war die Expression auf Proteinebene in der SULT1A1*2-tg Linie generell stärker als in der SULT1A1*1-Linie. Dieses Ergebnis war überraschend, denn in humanen Thrombocyten führt das SULT1A1*1-Allel zu einem höheren Gehalt an SULT1A1-Protein als das SULT1A1*2-Allel. Zur Analyse der unterschiedlichen Proteinexpressionen in den tg Mauslinien wurde die cDNA und der 5´-flankierende Bereich des SULT1A1-Gens sequenziert. In beiden tg Linien entsprach die Sequenz der cDNA der Referenzsequenz aus der Gendatenbank (Pubmed). In der 5´-flankierenden Region wurden bekannte Polymorphismen analysiert und unterschiedliche Haplotypen in den tg Linien an den Positionen -624 und -396 ermittelt. Dabei wurde in der Li 31 der Haplotyp detektiert, der in der Literatur mit einer höheren SULT1A1-Enzymaktivität beschrieben wird. Der mögliche Zusammenhang zwischen Transkriptionsrate und Proteinexpression wurde in RNA-Expressionsanalysen im codierenden und 5´-nicht codierenden Bereich (mit den alternativen Exons 1B und 1A) untersucht. Im codierenden Bereich und im Exon 1B konnte in den untersuchten Organen eine höhere RNA-Expression in der Li 28 im Vergleich zur Li 31 ermittelt werden. Außer in der Lunge wurde für Exon 1B eine identische RNA-Expression detektiert. RNA, die Exon 1A enthielt, wurde in allen untersuchten Organen der Li 28, aber nur in der Lunge bei der Li 31 gefunden. In beiden tg Linien konnten mit den Exon 1A-Primern jedoch auch größere PCR-Produkte ermittelt werden. Dieser Unterschied im Exon 1A und mögliche Spleißvarianten könnten damit für die unterschiedliche Proteinexpression des humanen SULT1A1-Proteins in den beiden tg Mauslinien sein. Die in dieser Arbeit generierten und charakterisierten tg Mausmodelle wurden in einer toxikologischen Studie eingesetzt. Es wurde das heterozyklische aromatische Amin 2-Amino-1-methyl-6-phenylimidazo-[4,5-b]pyridin (PhIP) verwendet. PhIP wird beim Erhitzen und Braten von Fleisch und Fisch gebildet und könnte mit der erhöhten Krebsentstehung im Colon in der westlichen Welt im Zusammenhang stehen. Mittels 32P-Postlabelling sollte der Einfluss der zusätzlichen Expression der humanen SULT-Proteine auf die PhIP-DNA-Adduktbildung analysiert werden. Dabei wurden mehr DNA-Addukte in den tg Tieren als in den Wildtyp-Mäusen ermittelt. Die Konzentration der gebildeten DNA-Addukte korrelierte mit der Expressionsstärke des humanen SULT1A1-Proteins in den tg Mäusen. An den in dieser Arbeit generierten tg Mauslinien mit den häufigsten allelischen Varianten des SULT1A1-Gens konnten Unterschiede auf RNA- und Protein-Ebene ermittelt werden. Zudem konnte gezeigt werden, dass die Expression der humanen SULT1A1 eine Auswirkung sowohl auf die Stärke als auch das Zielgewebe der DNA-Adduktbildung in vivo hat.
Submarine landslides can generate local tsunamis posing a hazard to human lives and coastal facilities. Two major related problems are: (i) quantitative estimation of tsunami hazard and (ii) early detection of the most dangerous landslides. This thesis focuses on both those issues by providing numerical modeling of landslide-induced tsunamis and by suggesting and justifying a new method for fast detection of tsunamigenic landslides by means of tiltmeters. Due to the proximity to the Sunda subduction zone, Indonesian coasts are prone to earthquake, but also landslide tsunamis. The aim of the GITEWS-project (German-Indonesian Tsunami Early Warning System) is to provide fast and reliable tsunami warnings, but also to deepen the knowledge about tsunami hazards. New bathymetric data at the Sunda Arc provide the opportunity to evaluate the hazard potential of landslide tsunamis for the adjacent Indonesian islands. I present nine large mass movements in proximity to Sumatra, Java, Sumbawa and Sumba, whereof the largest event displaced 20 km³ of sediments. Using numerical modeling, I compute the generated tsunami of each event, its propagation and runup at the coast. Moreover, I investigate the age of the largest slope failures by relating them to the Great 1977 Sumba earthquake. Continental slopes off northwest Europe are well known for their history of huge underwater landslides. The current geological situation west of Spitsbergen is comparable to the continental margin off Norway after the last glaciation, when the large tsunamigenic Storegga slide took place. The influence of Arctic warming on the stability of the Svalbard glacial margin is discussed. Based on new geophysical data, I present four possible landslide scenarios and compute the generated tsunamis. Waves of 6 m height would be capable of reaching northwest Europe threatening coastal areas. I present a novel technique to detect large submarine landslides using an array of tiltmeters, as a possible tool in future tsunami early warning systems. The dislocation of a large amount of sediment during a landslide produces a permanent elastic response of the earth. I analyze this response with a mathematical model and calculate the theoretical tilt signal. Applications to the hypothetical Spitsbergen event and the historical Storegga slide show tilt signals exceeding 1000 nrad. The amplitude of landslide tsunamis is controlled by the product of slide volume and maximal velocity (slide tsunamigenic potential). I introduce an inversion routine that provides slide location and tsunamigenic potential, based on tiltmeter measurements. The accuracy of the inversion and of the estimated tsunami height near the coast depends on the noise level of tiltmeter measurements, the distance of tiltmeters from the slide, and the slide tsunamigenic potential. Finally, I estimate the applicability scope of this method by employing it to known landslide events worldwide.
The Tibetan Plateau is the largest elevated landmass in the world and profoundly influences atmospheric circulation patterns such as the Asian monsoon system. Therefore this area has been increasingly in focus of palaeoenvironmental studies. This thesis evaluates the applicability of organic biomarkers for palaeolimnological purposes on the Tibetan Plateau with a focus on aquatic macrophyte-derived biomarkers. Submerged aquatic macrophytes have to be considered to significantly influence the sediment organic matter due to their high abundance in many Tibetan lakes. They can show highly 13C-enriched biomass because of their carbon metabolism and it is therefore crucial for the interpretation of δ13C values in sediment cores to understand to which extent aquatic macrophytes contribute to the isotopic signal of the sediments in Tibetan lakes and in which way variations can be explained in a palaeolimnological context. Additionally, the high abundance of macrophytes makes them interesting as potential recorders of lake water δD. Hydrogen isotope analysis of biomarkers is a rapidly evolving field to reconstruct past hydrological conditions and therefore of special relevance on the Tibetan Plateau due to the direct linkage between variations of monsoon intensity and changes in regional precipitation / evaporation balances. A set of surface sediment and aquatic macrophyte samples from the central and eastern Tibetan Plateau was analysed for composition as well as carbon and hydrogen isotopes of n-alkanes. It was shown how variable δ13C values of bulk organic matter and leaf lipids can be in submerged macrophytes even of a single species and how strongly these parameters are affected by them in corresponding sediments. The estimated contribution of the macrophytes by means of a binary isotopic model was calculated to be up to 60% (mean: 40%) to total organic carbon and up to 100% (mean: 66%) to mid-chain n-alkanes. Hydrogen isotopes of n-alkanes turned out to record δD of meteoric water of the summer precipitation. The apparent enrichment factor between water and n-alkanes was in range of previously reported ones (≈-130‰) at the most humid sites, but smaller (average: -86‰) at sites with a negative moisture budget. This indicates an influence of evaporation and evapotranspiration on δD of source water for aquatic and terrestrial plants. The offset between δD of mid- and long-chain n-alkanes was close to zero in most of the samples, suggesting that lake water as well as soil and leaf water are affected to a similar extent by those effects. To apply biomarkers in a palaeolimnological context, the aliphatic biomarker fraction of a sediment core from Lake Koucha (34.0° N; 97.2° E; eastern Tibetan Plateau) was analysed for concentrations, δ13C and δD values of compounds. Before ca. 8 cal ka BP, the lake was dominated by aquatic macrophyte-derived mid-chain n-alkanes, while after 6 cal ka BP high concentrations of a C20 highly branched isoprenoid compound indicate a predominance of phytoplankton. Those two principally different states of the lake were linked by a transition period with high abundances of microbial biomarkers. δ13C values were relatively constant for long-chain n-alkanes, while mid-chain n-alkanes showed variations between -23.5 to -12.6‰. Highest values were observed for the assumed period of maximum macrophyte growth during the late glacial and for the phytoplankton maximum during the middle and late Holocene. Therefore, the enriched values were interpreted to be caused by carbon limitation which in turn was induced by high macrophyte and primary productivity, respectively. Hydrogen isotope signatures of mid-chain n-alkanes have been shown to be able to track a previously deduced episode of reduced moisture availability between ca. 10 and 7 cal ka BP, indicated by a 20‰ shift towards higher δD values. Indications for cooler episodes at 6.0, 3.1 and 1.8 cal ka BP were gained from drops of biomarker concentrations, especially microbial-derived hopanoids, and from coincidental shifts towards lower δ13C values. Those episodes correspond well with cool events reported from other locations on the Tibetan Plateau as well as in the Northern Hemisphere. To conclude, the study of recent sediments and plants improved the understanding of factors affecting the composition and isotopic signatures of aliphatic biomarkers in sediments. Concentrations and isotopic signatures of the biomarkers in Lake Koucha could be interpreted in a palaeolimnological context and contribute to the knowledge about the history of the lake. Aquatic macrophyte-derived mid-chain n-alkanes were especially useful, due to their high abundance in many Tibetan Lakes and their ability to record major changes of lake productivity and palaeo-hydrological conditions. Therefore, they have the potential to contribute to a fuller understanding of past climate variability in this key region for atmospheric circulation systems.
Sehzellen von Insekten sind epitheliale Zellen mit einer charakteristischen, hochpolaren Morphologie und Organisation. Die molekularen Komponenten der Sehkaskade befinden sich im Rhabdomer, einem Saum dicht gepackter Mikrovilli entlang der Sehzelle. Bereits in den 70er Jahren des letzten Jahrhunderts wurde beschrieben, dass die Mikrovilli entlang einer Sehzelle eine unterschiedliche Ausrichtung besitzen, oder in anderen Worten, die Rhabdomere entlang der Sehzell-Längsachse verdreht sind. So sind in den Sehzellen R1-R6 bei dipteren Fliegen (Calliphora, Drosophila) die Mikrovilli im distalen und proximalen Bereich eines Rhabdomers etwa rechtwinkelig zueinander angeordnet. Dieses Phänomen wird in der Fachliteratur als rhabdomere twisting bezeichnet und reduziert die Empfindlichkeit für polarisiertes Licht. Es wurde für das Drosophila-Auge gezeigt, dass diese strukturelle Asymmetrie der Sehzellen mit einer molekularen Asymmetrie in der Verteilung phosphotyrosinierter Proteine an die Stielmembran (einem nicht-mikrovillären Bereich der apikalen Plasmamembran) einhergeht. Zudem wurde gezeigt, dass die immuncytochemische Markierung mit anti-Phosphotyrosin (anti-PY) als lichtmikroskopischer Marker für das rhabdomere twisting verwendet werden kann. Bisher wurde hauptsächlich die physiologische Bedeutung der Rhabdomerverdrehung untersucht. Es ist wenig über die entwicklungs- und zellbiologischen Grundlagen bekannt. Ziel der vorliegenden Arbeit war es, die Identität der phosphotyrosinierten Proteine an der Stielmembran zu klären und ihre funktionelle Bedeutung für die Entwicklung des rhabdomere twisting zu analysieren. Zudem sollte untersucht werden, welchen Einfluss die inneren Sehzellen R7 und R8 auf die Verdrehung der Rhabdomere von R1-R6 haben. Für die zwei Proteinkinasen Rolled (ERK) und Basket (JNK) vom Typ der Mitogen-aktivierten Proteinkinasen (MAPK) konnte ich zeigen, dass sie in ihrer aktivierten (= phosphorylierten) Form (pERK bzw. pJNK) eine asymmetrische Verteilung an der Stielmembran aufweisen vergleichbar der Markierung mit anti-PY. Weiterhin wurde diese asymmetrische Verteilung von pERK und pJNK ebenso wie die von PY erst kurz vor Schlupf der Fliegen (bei ca. 90% pupaler Entwicklung) etabliert. Durch Präinkubationsexperimente mit anti-PY wurde die Markierung mit anti-pERK bzw. anti-pJNK unterbunden. Diese Ergebnisse sprechen dafür, dass pERK und pJNK zu den Proteinen gehören, die von anti-PY an der Stielmembran erkannt werden. Da es sich bei ERK und JNK um Kinasen handelt, ist es naheliegend, dass diese an der Entwicklung des rhabdomere twisting beteiligt sein könnten. Diese Hypothese wurde durch die Analyse von hypermorphen (rl SEM)und hypomorphen (rl 1/rl 10a) Rolled-Mutanten überprüft. In der rl SEM-Mutante mit erhöhter Aktivität der Proteinkinase erfolgte die asymmetrische Positionierung von pERK an der Stielmembran sowie die Mikrovillikippung schon zu einem früheren Zeitpunkt in der pupalen Entwicklung. Im adulten Auge war die anti-PY-Markierung im distalen Bereich der Sehzellen intensiver sowie der Kippwinkel vergrößert. In der rl 1/rl 10a-Mutanten mit reduzierter Kinaseaktivität waren die anti-PY-Markierung und der Kippwinkel im proximalen Bereich der Sehzellen verringert. Die Proteinkinase ERK hat somit einen Einfluss auf die zeitliche Etablierung des rhabdomere twisting wie auch auf dessen Ausprägung im Adulttier. Die Rhabdomerverdrehung sowie die Änderung im anti-PY-Markierungsmuster erfolgen an den Sehzellen R1-R6 relativ abrupt auf halber Ommatidienlänge, dort wo das Rhabdomer von R7 endet und das von R8 beginnt. Es stellte sich deshalb die Frage, ob die Rhabdomerverdrehung an R1-R6 durch die Sehzelle R7 und/oder R8 beeinflusst wird. Um dieser Frage nachzugehen wurden Mutanten analysiert, denen die R7- oder die R8-Photorezeptoren bzw. R7 und R8 fehlten. Das wichtigste Ergebnis dieser Untersuchungen war, dass bei Fehlen von R8 die Rhabdomerverdrehung bei R1-R6 nach keinen erkennbaren Regeln erfolgt. R8 ist somit Voraussetzung für die Etablierung der Rhabdomerverdrehung in R1-R6. Folgendes Modell wurde auf Grundlage dieses und weiterer Ergebnisse erarbeitet: Im dritten Larvenstadium rekrutiert R8 die Sehzellpaare R2/R5, R3/R4 und R1/R6. Dabei werden R1-R6 durch den Kontakt zu R8 „polarisiert“. Abschließend wird R7 durch R8 rekrutiert. Dies führt zu einer Fixierung der Polarität von R1-R6 durch R7. Die Ausführung der Mikrovillikippung anhand der festgelegten Polarität erfolgt in der späten Puppenphase. Die Proteinkinase ERK ist an diesem letzten Morphogeneseprozess beteiligt.
Das homotrimere Tailspikeadhäsin des Bakteriophagen P22 ist ein etabliertes Modellsystem, dessen Faltung, Assemblierung und Stabilität in vivo und in vitro umfassend charakterisiert ist. Das zentrale Strukturmotiv des Proteins ist eine parallele beta-Helix mit 13 Windungen, die von einer N‑terminalen Kapsidbindedomäne und einer C‑terminalen Trimerisierungsdomäne flankiert wird. Jede Windung beinhaltet drei kurze beta-Stränge, die durch turns und loops unterschiedlicher Länge verbunden sind. Durch den sich strukturell wiederholenden, spulenförmigen Aufbau formen beta-Stränge benachbarter Windungen elongierte beta-Faltblätter. Das Lumen der beta-Helix beinhaltet größtenteils hydrophobe Seitenketten, welche linear und sehr regelmäßig entlang der Längsachse gestapelt sind. Eine hoch repetitive Struktur, ausgedehnte beta-Faltblätter und die regelmäßige Anordnung von ähnlichen oder identischen Seitenketten entlang der beta-Faltblattachse sind ebenfalls typische Kennzeichen von Amyloidfibrillen, die bei Proteinfaltungskrankheiten wie Alzheimer, der Creutzfeld-Jakob-Krankheit, Chorea Huntington und Typ-II-Diabetes gebildet werden. Es wird vermutet, dass die hohe Stabilität des Tailspikeproteins und auch die der Amyloidfibrille durch Seitenkettenstapelung, einem geordneten Netzwerk von Wasserstoffbrückenbindungen und den rigiden, oligomeren Verbund bedingt ist. Um den Einfluss der Seitenkettenstapelung auf die Stabilität, Faltung und Struktur des P22 Tailspikeproteins zu untersuchen, wurden sieben Valine in einem im Lumen der beta-Helix begrabenen Seitenkettenstapel gegen das kleinere und weniger hydrophobe Alanin und das voluminösere Leucin substituiert. Der Einfluss der Mutationen wurde anhand zweier Tailspikevarianten, dem trimeren, N‑terminal verkürzten TSPdeltaN‑Konstrukt und der monomeren, isolierten beta-Helix Domäne analysiert. Generell wurde in den Experimenten deutlich, dass Mutationen zu Alanin stärkere Effekte auslösen als Mutationen zu Leucin. Die dichte und hydrophobe Packung im Kern der beta-Helix bildet somit die Basis für Stabilität und Faltung des Proteins. Anhand hoch aufgelöster Kristallstrukturen jeweils zweier Alanin‑ und Leucin‑Mutanten konnte verdeutlicht werden, dass das Strukturmotiv der parallelen beta-Helix stark formbar ist und mutationsbedingte Änderungen des Seitenkettenvolumens durch kleine und lokale Verschiebung der Haupt‑ und Seitenketten ausgeglichen werden, sodass mögliche Kavitäten gefüllt und sterische Spannung abgebaut werden können. Viele Mutanten zeigten in vivo und in vitro einen temperatursensitiven Faltungsphänotyp (temperature sensitive for folding, tsf), d.h. bei Temperaturerhöhung waren die Ausbeuten des N‑terminal verkürzten Trimers im Vergleich zum Wildtyp deutlich verringert. Weiterführende Experimente zeigten, dass der tsf‑Phänotyp durch die Beeinflussung unterschiedlicher Stadien des Reifungsprozesses oder auch durch die Verminderung der kinetischen Stabilität des nativen Trimers ausgelöst wurde. Durch Untersuchungen am vollständigen und am N‑terminal verkürzten Wildtypprotein wurde gezeigt, dass die Entfaltungsreaktion des Tailspiketrimers komplex ist. Die Verläufe der Kinetiken folgen zwar einem apparenten Zweizustandsverhalten, jedoch sind bei Darstellung der Entfaltungsäste im Chevronplot die Abhängigkeiten der Geschwindigkeitskonstanten vom Denaturierungsmittel nicht linear, sondern in unterschiedliche Richtungen gewölbt. Dieses Verhalten könnte durch ein hoch energetisches Entfaltungsintermediat, einen breiten Übergangsbereich oder parallele Entfaltungswege hervorgerufen sein. Mit Hilfe der monomeren, isolierten beta-Helix Domäne, bei der die N‑terminale Capsidbindedomäne und die C‑terminale Trimerisierungsdomäne deletiert sind und welche als unabhängige Faltungseinheit fungiert, wurde gezeigt, dass alle Mutanten im Harnstoff‑induzierten Gleichgewicht analog zum Wildtypprotein einem Zweizustandsverhalten mit vergleichbaren Kooperativitäten folgen. Die konformationellen Stabilitäten von in der beta-Helix zentral gelegenen Alanin‑ und Leucin‑Mutanten sind stark vermindert, während Mutationen in äußeren Bereichen der Domäne keinen Einfluss auf die Stabilität der beta-Helix haben. Bei Verlängerung der Inkubationszeiten der Gleichgewichtsexperimente konnte die langsame Bildung von Aggregaten im Übergangsbereich der destabilisierten Mutanten detektiert werden. Die in der Arbeit erlangten Erkenntnisse lassen vermuten, dass die isolierte beta-Helix einem für die Reifung des Tailspikeproteins entscheidenden thermolabilen Faltungsintermediat auf Monomerebene sehr ähnlich ist. Im Intermediat ist ein zentraler Kern, der die Windungen 4 bis 7 und die „Rückenflosse“ beinhaltet, stabilitätsbestimmend. Dieser Kern könnte als Faltungsnukleus dienen, an den sich sequenziell weitere Helixwindungen anlagern und im Zuge der „Monomerreifung“ kompaktieren.
In dieser Arbeit wird die Entwicklung und Charakterisierung neuer „smarter“ Redoxhydrogele mit drei verschiedenen funktionellen Eigenschaften und deren erfolgreicher Einsatz zur elektrochemischen Kontaktierung von Oxidoreduktasen beschrieben. Diese neuen Redoxpolymere 1. tragen kovalent integrierte Redoxzentren umgeben von einer hydrophilen Polymermatrix, 2. reaktive Kopplungsgruppen für den Aufbau selbstassemblierter Polymerschichten auf Elektrodenoberflächen und 3. lassen sich in ihrer Redoxaktivität durch Verwendung „intelligenter“ Polymere über externe Stimuli kontrollieren. Die Redoxhydrogele wurden nach dem Vorbild eines Baukastensystems in einfachen Ein-Stufen-Synthesen synthetisiert. Dazu wurden verschiedene Redoxzentren (Ferrocen, 1,10-Phenanthrolin-5,6-dion und 4-Carboxy-2,5,7-Trinitro-9-fluorenon), reaktive Kopplungsgruppen (Epoxy-, Amino-, Thiol- oder Disulfidfunktionen) und Polymermatrices (Poly-(N-Isopropylacrylamid) (PNIPAM) und Poly(ethylenglykolmethacrylat) (PEGMA)) in unterschiedlichen Zusammensetzungen miteinander copolymerisiert. Die Polymere wurden in Form von dünnen Polymerfilmen über die wiederholenden Funktionalitäten auf Elektrodenoberflächen aufgebracht und physiko- und elektrochemisch charakterisiert. Durch die erstmals gezeigte, derartige Ankopplung der Polymere, entstehen dreidimensionale, hydrophile selbstassemblierte Polymerschichten. Die Elektronentransferwege sind kurz und der Elektronentransfer effizient. Diese Polymer-modifizierten Elektroden wurden für die Kontaktierung von zwei exemplarisch ausgewählten Oxidoreduktasen eingesetzt, die Nicotinsäureamid-adenin-dinucleotid-abhängige Glucosedehydrogenase (NAD-GDH), welche ein freibewegliches Coenzym und die Pyrrolochinolinchinon-abhängige Glucosedehydrogenase (PQQ-GDH), welche ein prosthetisches Coenzym verwenden. Die Redoxaktivitäten des PNIPAMFoxy- und PEGMA-Fc-Polymers ließen sich durch externe Stimuli in Form von Temperatur und Calciumkonzentrationen kontrollieren. Ein Modell für die Komplexierung der Calciumionen durch die PEG-Seitenketten unter Ausbildung Kronenether-ähnlicher Strukturen und der daraus resultierenden Steigerung des Elektronentransfers wurde gezeigt.
Die Interdependenz formaler und informaler Strukturen im Lichte der Systemtheorie Niklas Luhmanns
(2009)
Die meisten Menschen verbringen heutzutage den Großteil ihres Daseins in Organisationen. Sie werden immer häufiger in Organisationen geboren (Krankenhaus), in Organisationen sozialisiert (Kindergärten, Schulen usw.), sind für ihre Existenzsicherung auf Lohnzahlungen von Organisationen angewiesen, und zunehmend fristen sie ihr Lebensende in Organisationen (Krankenhaus, Altenheim etc.). Aus soziologischer Sicht sind Organisationen deshalb besonders interessant und verdienen eine besondere Beachtung in der Gesellschaftsanalyse. In dieser Untersuchung soll nicht der Siegeszug der Organisation in der soziokulturellen Evolution der Gesellschaft im Mittelpunkt stehen, sondern die Frage: Wie kommt das Driften (Maturana, Varela, 1991) der Organisation zustande? Geht man davon aus, dass in der Evolution Aussterben die Regel und Anpassung die Ausnahme ist, scheint der Aspekt des Driftens organisierter Sozialsysteme besonderes Augenmerk zu verdienen. Liest man die für Deutschland veröffentlichten Zahlen der Unternehmensinsolvenzen, gerade in den heutigen Zeiten der Wirtschafts- und Finanzkrise, scheint der Fortbestand einer einmal ins Leben gerufenen Organisation eher ungewiss als gesichert zu sein. Des Weiteren scheint es so zu sein, dass Organisationen gewissen Lebenszyklen (Küpper, Felsch) unterworfen sind. In den älteren Organisationstheorien wurde noch von einem einheitlichen Zweck ausgegangen, der die gesamte Strukturierung der Organisation übergreift. Alle Organisationsmitglieder haben ihr Handeln im Hinblick auf die Verwirklichung dieses spezifischen Zwecks der Intention nach rational zu gestalten. In der Organisationsanalyse stellte man aber fest, dass Zweckverschiebungen innerhalb der formalen Organisationen eher die Regel als die Ausnahme sind. (Mayntz, 1963 u.a.) Dies Problem der rational gestalteten Organisation wurde somit den Organisationsmitgliedern zugeschrieben. Gleichsam als die andere Seite der formalen Organisation agieren die Mitglieder der formalen Organisation in der informellen Organisation als Mikropolitiker (Bosetzky, Heinrich, 1989), die die formalen Strukturen unterminieren, um ihre persönliche Nutzenmaximierung voranzutreiben. Übernimmt man diese Perspektive für die Betrachtung der formalen Organisation, kann man sich schwer der Annahme verweigern, dass die Organisationsmitglieder grundlegend feindlich gegenüber der Organisation gesinnt sind. Mit dieser Perspektive würde man all den freiwilligen Mitgliedern in Hilfsorganisationen, sozialen Vereinen usw. nicht gerecht werden. In der hier durchgeführten Analyse wird die Perspektive der Luhmannschen Systemtheorie eingenommen. Damit sind die Organisationsmitglieder nicht aus der theoretischen Betrachtung eliminiert, sondern im Gegenteil, sie werden in der Umwelt der organisierten Sozialsysteme verortet. Das hat den entscheidenden Vorteil, dass den Organisationsmitgliedern aus der theoretischen Betrachtung heraus mehr Freiheit zugestanden wird als in akteurszentrierten Theorien. Denn Systembildung bedeutet immer die Streichung mindestens eines Freiheitsgrades (Foerster von, 1997). Mit der Luhmannschen Systemtheorie wird des Weiteren davon ausgegangen, dass sich gleichsam unbeobachtet hinter dem Rücken der Anwesenden ein Netzwerk webt, ein soziales System sich bildet. Alle sozialen Systeme beruhen letztlich auf der Unterscheidung von Bewusstsein und Kommunikation. Die Kommunikation selbst kann man nicht beobachten sondern nur erschließen. Solange sie störungsfrei läuft, bleibt sie den Anwesenden unbewusst. Erst bei Störungen des Kommunikationsflusses macht sie sich bemerkbar, obgleich sie fast nie den Anwesenden bewusst wird. Denn die Kommunikation drillt den Menschen auf den Menschen, weil sie sich der Wahrnehmung entzieht (Fuchs, 1998). Die Autopoiesis der Kommunikation ist auf die Anwesenheit zweier psychischer Systeme bzw. Bewusstseinssysteme angewiesen. Sie ermöglichen überhaupt erst den Raum oder den Phänomenbereich, in dem die Autopoiesis sozialer Systeme möglich ist (Luhmann, 1990). Die Autopoiesis der Kommunikation setzt entsprechend immer Interaktion der Anwesenden voraus. In der Interaktion selbst, werden sich die Anwesenden in besonderer Weise wechselseitig bewusst und können sich entsprechend anders zur Geltung bringen, als in den Strukturzwängen einer formalern Organisation. Die Kommunikation selbst gibt den Beteiligten gewisse Changiermöglichkeiten an die Hand, z.B. das An- und Ausschalten verschiedener operativer Displacement (Fuchs, 1993), um ihren störungsfreien Ablauf zu ermöglichen und entsprechende Brüche zu vermeiden. Zum Beispiel den nahtlosen Übergang von einem Thema zu einem anderen. Die Interaktion selbst wird als zeitinstabiles Kontaktsystem (Luhmann, 1997) begriffen, das mit dem Auseinandergehen der Beteiligten erloschen ist. Die hier kurz angerissene Bedeutung der Kommunikation in der Luhmannschen Systemtheorie erklärt, warum ihr in der durchgeführten Analyse ein so breiter Raum eingeräumt wurde. Organisationen sind Sozialsysteme eines anderen Typs und besitzen damit verbunden ganz andere emergente Eigenschaften. Sie können mit der diffusen Kommunikation der Interaktion nichts anfangen. Ihre Operationen basieren auf Entscheidungen. Jede Entscheidung schließt an eine Entscheidungskommunikation an, aber sie selbst ist die Sinnverdichtung dieser Kommunikation. Und eben dieser Sachverhalt stellt ihre Effizienz, ihr Tempovorteil gegenüber allen anderen Typen sozialer Systeme dar. Erst wenn es der Organisation gelingt Entscheidungen an Entscheidungen zu knüpfen, ist sie in der Lage ihr eigenes Netzwerk ihrer eigenen Entscheidungen zu etablieren. Nur in der Form der Entscheidung kann sie ihre für sie selbst nicht weiter hintergehbaren Systemelemente (Entscheidungen) aneinander anschließen, Entscheidungen anhand von Entscheidungen produzieren. Gelingt ihr das, gewinnen die Entscheidungen füreinander Relevanz, können sich wechselseitig stützen, vorbereiten und entlasten. Jede Entscheidung muss jetzt ihre eigene Vorgängerentscheidung und den jeweiligen Kontext anderer Entscheidungen mit berücksichtigen. Es bildet sich ein Zusammenhang der Entscheidungen, der die Grenzen des Systems begründet und bezeichnet. Da jede Organisation sich immer nur jeweils im Moment ihres Entscheidens realisiert, bekommt sie ein Zeitproblem. Man muss nicht nur entscheiden, sondern man muss mit Bezug auf den Entscheidungszusammenhang korrekt und rechtzeitig entscheiden bevor sich das zu entscheidende Problem zu Ungunsten der Organisation von selbst erledigt hat. Alles was jetzt in der Organisation als relevant betrachtet werden soll, muss die Form einer Entscheidung annehmen. Dies bedeutet nicht, dass in der Entscheidungskommunikation nicht Einfluss auf die Entscheidung genommen werden kann, aber zum einen wird man aufgrund des Entscheidungsdrucks versuchen die Entscheidungskommunikation soweit wie möglich zu verkürzen, z.B durch Programmierung. Zum anderen sieht man der Entscheidung ihre Entscheidungskommunikation nicht an. Man kann sie nur noch erahnen. Organisationen kommunizieren am liebsten mit Organisationen in ihrer Umwelt, da diese gezwungen sind, selbst Entscheidungen zu produzieren, mit denen man selbst etwas anfangen kann. Man kann sie entweder in den eigenen Entscheidungszusammenhang übernehmen, oder man kann sie mit einer eigenen Entscheidung ablehnen. Aber jede Entscheidung, die die Organisation trifft bestätigt oder ändert ihre Strukturen. Dieser Gedankengang führte zu der Überlegung, dass informale Strukturen selbst organisierte Interaktionssysteme sein müssen. Sie müssen sich bereits in irgendeiner Form selbst organisieren. Sie stehen unter dem Gesetz des Wiedersehens. Die sozialen Kontakte werden sich in einem absehbaren Zeit- und Interessenhorizont wiederholen, sich verdichten und konfirmieren (Luhmann, 1997) und dies erfordert bereits ein gewisses Maß an Organisation. Man muss die nächsten Treffen planen, ein Thema auswählen usw. Letztlich produzieren sie Entscheidungen mit denen die formale Organisation etwas anfangen kann. Dies ist einer der Gründe, warum sich die formale Organisation zunehmend den Zugriff auf informale Strukturen ermöglicht.
Pectic polysaccharides, a class of plant cell wall polymers, form one of the most complex networks known in nature. Despite their complex structure and their importance in plant biology, little is known about the molecular mechanism of their biosynthesis, modification, and turnover, particularly their structure-function relationship. One way to gain insight into pectin metabolism is the identification of mutants with an altered pectin structure. Those were obtained by a recently developed pectinase-based genetic screen. Arabidopsis thaliana seedlings grown in liquid medium containing pectinase solutions exhibited particular phenotypes: they were dwarfed and slightly chlorotic. However, when genetically different A. thaliana seed populations (random T-DNA insertional populations as well as EMS-mutagenized populations and natural variations) were subjected to this treatment, individuals were identified that exhibit a different visible phenotype compared to wild type or other ecotypes and may thus contain a different pectin structure (pec-mutants). After confirming that the altered phenotype occurs only when the pectinase is present, the EMS mutants were subjected to a detailed cell wall analysis with particular emphasis on pectins. This suite of mutants identified in this study is a valuable resource for further analysis on how the pectin network is regulated, synthesized and modified. Flanking sequences of some of the T-DNA lines have pointed toward several interesting genes, one of which is PEC100. This gene encodes a putative sugar transporter gene, which, based on our data, is implicated in rhamnogalacturonan-I synthesis. The subcellular localization of PEC100 was studied by GFP fusion and this protein was found to be localized to the Golgi apparatus, the organelle where pectin biosynthesis occurs. Arabidopsis ecotype C24 was identified as a susceptible one when grown with pectinases in liquid culture and had a different oligogalacturonide mass profile when compared to ecotype Col-0. Pectic oligosaccharides have been postulated to be signal molecules involved in plant pathogen defense mechanisms. Indeed, C24 showed elevated accumulation of reactive oxygen species upon pectinase elicitation and had altered response to the pathogen Alternaria brassicicola in comparison to Col-0. Using a recombinant inbred line population three major QTLs were identified to be responsible for the susceptibility of C24 to pectinases. In a reverse genetic approach members of the qua2 (putative pectin methyltransferase) family were tested for potential target genes that affect pectin methyl-esterification. The list of these genes was determined by in silico study of the pattern of expression and co-expression of all 34 members of this family resulting in 6 candidate genes. For only for one of the 6 analyzed genes a difference in the oligogalacturonide mass profile was observed in the corresponding knock-out lines, confirming the hypothesis that the methyl-esterification pattern of pectin is fine tuned by members of this gene family. This study of pectic polysaccharides through forward and reverse genetic screens gave new insight into how pectin structure is regulated and modified, and how these modifications could influence pectin mediated signalling and pathogenicity.
Trying to do two things at once decreases performance of one or both tasks in many cases compared to the situation when one performs each task by itself. The present thesis deals with the question why and in which cases these dual-task costs emerge and moreover, whether there are cases in which people are able to process two cognitive tasks at the same time without costs. In four experiments the influence of stimulus-response (S-R) compatibility, S-R modality pairings, interindividual differences, and practice on parallel processing ability of two tasks are examined. Results show that parallel processing is possible. Nevertheless, dual-task costs emerge when: the personal processing strategy is serial, the two tasks have not been practiced together, S-R compatibility of both tasks is low (e.g. when a left target has to be responded with a right key press and in the other task an auditorily presented “A” has to be responded by saying “B”), and modality pairings of both tasks are Non Standard (i.e., visual-spatial stimuli are responded vocally whereas auditory-verbal stimuli are responded manually). Results are explained with respect to executive-based (S-R compatibility) and content-based crosstalk (S-R modality pairings) between tasks. Finally, an alternative information processing account with respect to the central stage of response selection (i.e., the translation of the stimulus to the response) is presented.
20 Jahre sind mittlerweile vergangen seit die friedliche Protestbewegung zur Abdankung des alten Regimes der Deutschen Demokratischen Republik führte. Im darauf folgenden Jahre kam es zur Wiedervereinigung der beiden deutschen Staaten. Der anschließende Transformationsprozess ist aufgrund der besonderen Umstände in Deutschland einzigartig unter den ehemaligen sozialistischen Staaten Mittel- und Osteuropas. Der Schwerpunkt dieser Arbeit liegt in der Transformation des Verarbeitenden Gewerbes in den Bundesländern Berlin und Brandenburg. Mit der Wiedervereinigung der beiden deutschen Staaten veränderte sich die Situation für die Betriebe im ehemals sozialistischen Teil auf dramatische Weise. Die Auswirkungen werden anhand von Makro- und Mikrodaten analysiert. Untersuchungsgegenstände sind verschiedene ökonomische Indikatoren, wie Zahl von Betrieben und Arbeitsplätzen, Strukturen (nach Größe und Branchen), Umsätze (im In- und Ausland) sowie Investitionen. Der Vergleich von Brandenburg und Ostberlin mit Westberlin bietet dabei die Möglichkeit, Aufschluss über den erreichten Stand des Transformationsprozesses zu erhalten. Die Datenbasis dieser Arbeit besteht neben Angaben aus der Volkswirtschaftlichen Gesamtrechnung der Länder aus verschiedenen betriebsbasierten Erhebungen der amtlichen Statistik. Der Beobachtungszeitraum umfasst dabei die Jahre 1991 bis 2005. Zur Analyse von Betriebs- und Beschäftigungszahlen und ihrer Dynamik steht sogar eine Totalerhebung für die Jahre 1991 bis 2000 zur Verfügung. Ein besonderer Schwerpunkt dieser Arbeit ist die Rolle der Exporte für die betriebliche Entwicklung. Die deutsche Wirtschaftspolitik fördert Unternehmen bei ihrem Schritt auf ausländische Märkte, da man sich von Exporten eine Wachstumsstimulation erhofft. Damit eine solche Förderung auch langfristige positive Effekte entfalten kann, muss einerseits der Export positiven Einfluss auf das Produktivitätswachstum des betreffenden Betriebes haben, und andererseits muss das Exportverhalten eine gewisse Persistenz aufweisen. Beide Bedingungen werden innerhalb der Arbeit detailliert untersucht.
Untersuchung des Recyclings Kaede-fusionierter Corticotropin-Releasing-Factor Rezeptoren Typ 1
(2009)
Aktivierte G-Protein-gekoppelte Rezeptoren (GPCR) werden schnell desensitisiert, internalisiert und anschließend entweder lysosomal degradiert oder zur Plasmamembran (PM) recycelt. Zur Resensitisierung der Zellen tragen neben recycelten auch neusynthetisierte Rezeptoren bei. Die Überlagerung beider Prozesse erschwert die Untersuchung des Rezeptorrecyclings. In dieser Arbeit sollte mit Hilfe des photokonvertierbaren Fluoreszenzproteins Kaede eine Technik entwickelt werden, mit der es möglich ist Recycling- von Neusyntheseprozessen zu trennen und das Recycling von GPCR mikroskopisch in Echtzeit zu beobachten. Als Modellproteine wurden der Vasopressin-1a-Rezeptor V1aR (recycelnder Rezeptor), der Vasopressin-2-Rezeptor V2R (degradierter Rezeptor) und der Corticotropin-Releasing Factor-Rezeptor Typ 1 (CRF1R) verwendet, wobei bei Letzterem untersucht werden sollte, ob er nach Stimulation zur PM zurücktransportiert wird. Da Kaede als fluoreszierendes Protein mit den GPCR fusioniert wird, wurde zunächst überprüft, ob es die Eigenschaften der Rezeptoren verändert und generell für Transportstudien geeignet ist. Eventuell könnte die bereits publizierte Tetramerisierung von Kaede seine Anwendung verhindern oder erschweren. Mittels Fluoreszenz-Korrelationsspektroskopie konnte gezeigt werden, dass Kaede nicht tetramerisiert, wenn es an ein Membranprotein fusioniert ist. Außerdem konnte in in vitro- und Zellkulturexperimenten belegt werden, dass die native und die photokonvertierte Form von Kaede gleichermaßen stabil sind. Darüber hinaus zeigten Kaede-fusionierte GPCR sowohl in Kolokalisationsstudien als auch in Agonistbindungs- und Rezeptoraktivierungsexperimenten die gleichen Eigenschaften wie CFP- bzw. die unfusionierte Rezeptoren. Lediglich die Expression der Kaede-fusionierten Rezeptoren war geringer. Parallel wurde anhand der bereits publizierten Kaede-Struktur versucht, die Tetramerisierung des Proteins durch den Austausch interagierender Aminosäuren zu unterbinden. Die eingeführten Mutationen bewirkten aber eine Fehlfaltung des Proteins und damit den Verlust der Fluoreszenz. Da zuvor gezeigt werden konnte, dass Kaede-fusionierte Membranproteine nicht tetramerisieren und nicht die Eigenschaften der fusionierten Proteine verändern, war monomerisiertes Kaede zur Untersuchung des Rezeptorrecyclings nicht notwendig. Im zweiten Teil der Arbeit wurde mit Hilfe von Kaede-Fusionsproteinen und mikroskopischer Testsysteme das noch unbekannte Recyclingverhalten des CRF1R untersucht. Hierfür wurden die Kaede-fusionierten Rezeptoren in eukaryotischen Zellen exprimiert und mit Agonisten internalisiert. Die internalisierten Rezeptoren wurden in Endosomen selektiv mit UV-Strahlung photokonvertiert. Anschließend wurde der Transport der photokonvertierten Form verfolgt. Sowohl beim CRF1R als auch beim V1aR wurden Signale in der PM detektiert, beim V2R hingegen nicht. Dies zeigt, dass es sich beim CRF1R um einen recycelnden Rezeptor handelt. Die als Kontrolle eingesetzten Rezeptoren verhielten sich in diesem Experiment wie erwartet: Der V1aR wurde zur PM zurücktransportiert, der V2R nicht. Diese Ergebnisse konnten mit Hilfe biochemischer und durchflusscytometrischer Experimente bestätigt werden. Die Internalisierung des CRF1R verläuft Clathrin-vermittelt in Anwesenheit von β-Arrestin. Je nach Stabilität der β Arrestin-Interaktion unterscheidet man zwei Klassen von Rezeptoren: Klasse A-Rezeptoren interagieren transient mit β Arrestin und können recyceln. Im Gegensatz dazu gehen Klasse B-Rezeptoren eine stabile Interaktion mit β Arrestin ein und werden nach Internalisierung degradiert. In mikroskopischen Untersuchungen konnte für die aktivierten CRF1R und V1aR eine Rekrutierung von β Arrestin zur PM und eine transiente Interaktion mit β Arrestin gezeigt werden (Klasse A-Rezeptoren). Für den V2R wurde dagegen eine stabile Interaktion mit β Arrestin beobachtet (Klasse B-Rezeptor). Diese Daten stützen die Ergebnisse des Kaede-basierten Recyclingversuchs und zeigen, dass der CRF1R ein recycelnder Rezeptor ist. Ferner wurde untersucht, ob der CRF1R zu den schnell oder langsam recycelnden Rezeptoren zählt. Schnell recycelnde Rezeptoren werden direkt aus frühen Endosomen, langsam recycelnde hingegen über das Trans-Golgi-Netzwerk (TGN) bzw. über Recycling-Endosomen zur PM transportiert. Als Marker für das TGN oder die Recycling-Endosomen wurde Rab11 verwendet. In Kolokalisationsstudien konnte gezeigt werden, dass der CRF1R den langsam recycelnden Rezeptoren zugeordnet werden kann. Zusammenfassend konnte in dieser Arbeit belegt werden, dass Kaede als Fusionspartner für Membranproteine genutzt werden kann um deren Transport in Echtzeit zu studieren. Damit wurde erstmals eine mikroskopische Methode etabliert, die es erlaubt recycelnde von neusynthetisierten Rezeptoren zu unterscheiden. Mit Hilfe dieser Methode war es möglich zu zeigen, dass der CRF1R ein recycelnder Rezeptor ist.
Parataxe et subordination, ces deux termes, parfois antithétiques, sont problématiques du fait même de leur extrême polysémie. C’est de cette ambiguïté que naît l’objet d’étude, les constructions asyndétiques, au statut incertain entre intégration et indépendance. Dans cette thèse, nous proposons de réinterroger ce phénomène ancien et déjà bien connu en ancien français, en le mettant en regard des remises en question et avancées des recherches actuelles sur le sujet. Pour cela, il nous faut tout d'abord poser une définition de ce qu'est la subordination. Nous montrons ensuite que les constructions asyndétiques sont bien des cas de subordination. Cette thèse établit enfin que ce phénomène constitue, en ancien français du moins, une variante libre en syntaxe. Sa répartition et sa présence dans les textes a cependant très tôt diminué, mais l’existence de phénomènes parallèles en français moderne, tout comme d’autres indices, nous permettent de faire l’hypothèse que cette évolution tient d’une alternance oral / écrit. Cette thèse montre ainsi que les problèmes, comme les enjeux, ne diffèrent finalement pas, quel que soit l’état de langue et que la parataxe constitue bien une construction dans le système de la langue.
Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator.
The presented thesis describes the observations of the Galactic center Quintuplet cluster, the spectral analysis of the cluster Wolf-Rayet stars of the nitrogen sequence to determine their fundamental stellar parameters, and discusses the obtained results in a general context. The Quintuplet cluster was discovered in one of the first infrared surveys of the Galactic center region (Okuda et al. 1987, 1989) and was observed for this project with the ESO-VLT near-infrared integral field instrument SINFONI-SPIFFI. The subsequent data reduction was performed in parts with a self-written pipeline to obtain flux-calibrated spectra of all objects detected in the imaged field of view. First results of the observation were compiled and published in a spectral catalog of 160 flux-calibrated $K$-band spectra in the range of 1.95 to 2.45\,$\mu$m, containing 85 early-type (OB) stars, 62 late-type (KM) stars, and 13 Wolf-Rayet stars. About 100 of these stars are cataloged for the first time. The main part of the thesis project was concentrated on the analysis of the WR stars of the nitrogen sequence and one further identified emission line star (Of/WN) with tailored Potsdam Wolf-Rayet (PoWR) models for expanding atmospheres (Hamann et al. 1995) that are applied to derive the stellar parameters of these stars. For this purpose, the atomic input data of the PoWR models had to be extended by further line transitions in the near-infrared spectral range to enable adaequate model spectra to be calculated. These models were then fitted to the observed spectra, revealing typical paramters for this class of stars. A significant amount of hydrogen of up to $X_\text{H} \sim 0.2$ by mass fraction is still present in their stellar atmospheres. The stars are also found to be very luminous ($\log{(L/L_\odot)} > 6.0$) and show mass-loss rates and wind characteristics typical for radiation-driven winds. By comparison with stellar evolutionary models (Meynet \& Maeder 2003a; Langer et al. 1994), the initial masses were estimated and indicate that the Quintuplet WN stars are descendants from the most massive O stars with $M_\text{init} > 60 M_\odot$ and their ages correspond to a cluster age of 3-5\,million years. The analysis of the individual WN stars revealed an average extinction of $A_K =3.1 \pm 0.5$\,mag ($A_V = 27 \pm 4$) towards the Quintuplet cluster. This extinction was applied to derive the stellar luminosities of the remaining early-type and late-type stars in the catalog and a Hertzsprung-Russell diagram could be compiled. Surprisingly, two stellar populations are found, a group of main sequence OB stars and a group of evolved late-type stars, i.e. red supergiants (RSG). The main sequence stars indicate a cluster age of 4 million years, which would be too young for red supergiants to be already present. A star formation event lasting for a few million years might possibly explain the Quintuplet's population and the cluster would still be considered coeval. However, the unexpected and simultaneous presence of red supergiants and Wolf-Rayet stars in the cluster points out that the details of star formation and cluster evolution are not yet well understood for the Quintuplet cluster.
Modern acquisition of seismic data on receiver networks worldwide produces an increasing amount of continuous wavefield recordings. Hence, in addition to manual data inspection, seismogram interpretation requires new processing utilities for event detection, signal classification and data visualization. Various machine learning algorithms, which can be adapted to seismological problems, have been suggested in the field of pattern recognition. This can be done either by means of supervised learning using manually defined training data or by unsupervised clustering and visualization. The latter allows the recognition of wavefield patterns, such as short-term transients and long-term variations, with a minimum of domain knowledge. Besides classical earthquake seismology, investigations of temporal patterns in seismic data also concern novel approaches such as noise cross-correlation or ambient seismic vibration analysis in general, which have moved into focus within the last decade. In order to find records suitable for the respective approach or simply for quality control, unsupervised preprocessing becomes important and valuable for large data sets. Machine learning techniques require the parametrization of the data using feature vectors. Applied to seismic recordings, wavefield properties have to be computed from the raw seismograms. For an unsupervised approach, all potential wavefield features have to be considered to reduce subjectivity to a minimum. Furthermore, automatic dimensionality reduction, i.e. feature selection, is required in order to decrease computational cost, enhance interpretability and improve discriminative power. This study presents an unsupervised feature selection and learning approach for the discovery, imaging and interpretation of significant temporal patterns in seismic single-station or network recordings. In particular, techniques permitting an intuitive, quickly interpretable and concise overview of available records are suggested. For this purpose, the data is parametrized by real-valued feature vectors for short time windows using standard seismic analysis tools as feature generation methods, such as frequency-wavenumber, polarization, and spectral analysis. The choice of the time window length is dependent on the expected durations of patterns to be recognized or discriminated. We use Self-Organizing Maps (SOMs) for a data-driven feature selection, visualization and clustering procedure, which is particularly suitable for high-dimensional data sets. Using synthetics composed of Rayleigh and Love waves and three different types of real-world data sets, we show the robustness and reliability of our unsupervised learning approach with respect to the effect of algorithm parameters and data set properties. Furthermore, we approve the capability of the clustering and imaging techniques. For all data, we find improved discriminative power of our feature selection procedure compared to feature subsets manually selected from individual wavefield parametrization methods. In particular, enhanced performance is observed compared to the most favorable individual feature generation method, which is found to be the frequency spectrum. The method is applied to regional earthquake records at the European Broadband Network with the aim to define suitable features for earthquake detection and seismic phase classification. For the latter, we find that a combination of spectral and polarization features favor S wave detection at a single receiver. However, SOM-based visualization of phase discrimination shows that clustering applied to the records of two stations only allows onset or P wave detection, respectively. In order to improve the discrimination of S waves on receiver networks, we recommend to consider additionally the temporal context of feature vectors. The application to continuous recordings of seismicity close to an active volcano (Mount Merapi, Java, Indonesia) shows that two typical volcano-seismic events (VTB and Guguran) can be detected and distinguished by clustering. In contrast, so-called MP events cannot be discriminated. Comparable results are obtained for selected features and recognition rates regarding a previously implemented supervised classification system. Finally, we test the reliability of wavefield clustering to improve common ambient vibration analysis methods such as estimation of dispersion curves and horizontal to vertical spectral ratios. It is found, that in general, the identified short- and long-term patterns have no significant impact on those estimates. However, for individual sites, effects of local sources can be identified. Leaving out the corresponding clusters, yields reduced uncertainties or allows for improving estimation of dispersion curves.
This work presents mathematical and computational approaches to cover various aspects of metabolic network modelling, especially regarding the limited availability of detailed kinetic knowledge on reaction rates. It is shown that precise mathematical formulations of problems are needed i) to find appropriate and, if possible, efficient algorithms to solve them, and ii) to determine the quality of the found approximate solutions. Furthermore, some means are introduced to gain insights on dynamic properties of metabolic networks either directly from the network structure or by additionally incorporating steady-state information. Finally, an approach to identify key reactions in a metabolic networks is introduced, which helps to develop simple yet useful kinetic models. The rise of novel techniques renders genome sequencing increasingly fast and cheap. In the near future, this will allow to analyze biological networks not only for species but also for individuals. Hence, automatic reconstruction of metabolic networks provides itself as a means for evaluating this huge amount of experimental data. A mathematical formulation as an optimization problem is presented, taking into account existing knowledge and experimental data as well as the probabilistic predictions of various bioinformatical methods. The reconstructed networks are optimized for having large connected components of high accuracy, hence avoiding fragmentation into small isolated subnetworks. The usefulness of this formalism is exemplified on the reconstruction of the sucrose biosynthesis pathway in Chlamydomonas reinhardtii. The problem is shown to be computationally demanding and therefore necessitates efficient approximation algorithms. The problem of minimal nutrient requirements for genome-scale metabolic networks is analyzed. Given a metabolic network and a set of target metabolites, the inverse scope problem has as it objective determining a minimal set of metabolites that have to be provided in order to produce the target metabolites. These target metabolites might stem from experimental measurements and therefore are known to be produced by the metabolic network under study, or are given as the desired end-products of a biotechological application. The inverse scope problem is shown to be computationally hard to solve. However, I assume that the complexity strongly depends on the number of directed cycles within the metabolic network. This might guide the development of efficient approximation algorithms. Assuming mass-action kinetics, chemical reaction network theory (CRNT) allows for eliciting conclusions about multistability directly from the structure of metabolic networks. Although CRNT is based on mass-action kinetics originally, it is shown how to incorporate further reaction schemes by emulating molecular enzyme mechanisms. CRNT is used to compare several models of the Calvin cycle, which differ in size and level of abstraction. Definite results are obtained for small models, but the available set of theorems and algorithms provided by CRNT can not be applied to larger models due to the computational limitations of the currently available implementations of the provided algorithms. Given the stoichiometry of a metabolic network together with steady-state fluxes and concentrations, structural kinetic modelling allows to analyze the dynamic behavior of the metabolic network, even if the explicit rate equations are not known. In particular, this sampling approach is used to study the stabilizing effects of allosteric regulation in a model of human erythrocytes. Furthermore, the reactions of that model can be ranked according to their impact on stability of the steady state. The most important reactions in that respect are identified as hexokinase, phosphofructokinase and pyruvate kinase, which are known to be highly regulated and almost irreversible. Kinetic modelling approaches using standard rate equations are compared and evaluated against reference models for erythrocytes and hepatocytes. The results from this simplified kinetic models can simulate acceptably the temporal behavior for small changes around a given steady state, but fail to capture important characteristics for larger changes. The aforementioned approach to rank reactions according to their influence on stability is used to identify a small number of key reactions. These reactions are modelled in detail, including knowledge about allosteric regulation, while all other reactions were still described by simplified reaction rates. These so-called hybrid models can capture the characteristics of the reference models significantly better than the simplified models alone. The resulting hybrid models might serve as a good starting point for kinetic modelling of genome-scale metabolic networks, as they provide reasonable results in the absence of experimental data, regarding, for instance, allosteric regulations, for a vast majority of enzymatic reactions.
Dispersal behavior plays an important role for the geographical distribution and population structure of any given species. Individual’s fitness, reproductive and competitive ability, and dispersal behavior can be determined by the age of the individual. Age-dependent as well as density-dependent dispersal patterns are common in many bird species. In this thesis, I first present age-dependent breeding ability and natal site fidelity in white storks (Ciconia ciconia); migratory birds breeding in large parts of Europe. I predicted that both the proportion of breeding birds and natal site fidelity increase with the age. After the seventies of the last century, following a steep population decline, a recovery of the white stork population has been observed in many regions in Europe. Increasing population density in the white stork population in Eastern Germany especially after 1983 allowed examining density- as well as age-dependent breeding dispersal patterns. Therefore second, I present whether: young birds show more often and longer breeding dispersal than old birds, and frequency of dispersal events increase with the population density increase, especially in the young storks. Third, I present age- and density-dependent dispersal direction preferences in the give population. I asked whether and how the major spring migration direction interacts with dispersal directions of white storks: in different age, and under different population densities. The proportion of breeding individuals increased in the first 22 years of life and then decreased suggesting, the senescent decay in aging storks. Young storks were more faithful to their natal sites than old storks probably due to their innate migratory direction and distance. Young storks dispersed more frequently than old storks in general, but not for longer distance. Proportion of dispersing individuals increased significantly with increasing population densities indicating, density- dependent dispersal behavior in white storks. Moreover, the finding of a significant interaction effects between the age of dispersing birds and year (1980–2006) suggesting, older birds dispersed more from their previous nest sites over time due to increased competition. Both young and old storks dispersed along their spring migration direction; however, directional preferences were different in young storks and old storks. Young storks tended to settle down before reaching their previous nest sites (leading to the south-eastward dispersal) while old birds tended to keep migrating along the migration direction after reaching their previous nest sites (leading to the north-westward dispersal). Cues triggering dispersal events may be age-dependent. Changes in the dispersal direction over time were observed. Dispersal direction became obscured during the second half of the observation period (1993–2006). Increase in competition may affect dispersal behavior in storks. I discuss the potential role of: age for the observed age-dependent dispersal behavior, and competition for the density dependent dispersal behavior. This Ph.D. thesis contributes significantly to the understanding of population structure and geographical distribution of white storks. Moreover, presented age- and density (competition)-dependent dispersal behavior helps understanding underpinning mechanisms of dispersal behavior in bird species.
To date, positive relationships between diversity and community biomass have been mainly found, especially in terrestrial ecosystems due to the complementarity and/or dominance effect. In this thesis, the effect of diversity on the performance of terrestrial plant and phytoplankton communities was investigated to get a better understanding of the underlying mechanisms in the biodiversity-ecosystem functioning context. In a large grassland biodiversity experiment, the Jena Experiment, the effect of community diversity on the individual plant performance was investigated for all species. The species pool consisted of 60 plant species belonging to 4 functional groups (grasses, small herbs, tall herbs, legumes). The experiment included 82 large plots which differed in species richness (1-60), functional richness (1-4), and community composition. Individual plant height increased with increasing species richness suggesting stronger competition for light in more diverse communities. The aboveground biomass of the individual plants decreased with increasing species richness indicating stronger competition in more species-rich communities. Moreover, in more species-rich communities plant individuals were less likely to flower out and had fewer inflorescences which may be resulting from a trade-off between resource allocation to vegetative height growth and to reproduction. Responses to changing species richness differed strongly between functional groups and between species of similar functional groups. To conclude, individual plant performance can largely depend on the diversity of the surrounding community. Positive diversity effects on biomass have been mainly found for substrate-bound plant communities. Therefore, the effect of diversity on the community biomass of phytoplankton was studied using microcosms. The communities consisted of 8 algal species belonging to 4 functional groups (green algae, diatoms, cyanobacteria, phytoflagellates) and were grown at different functional richness levels (1-4). Functional richness and community biomass were negatively correlated and all community biomasses were lower than their average monoculture biomasses of the component species, revealing community underyielding. This was mainly caused by the dominance of a fast-growing species which built up low biomasses in monoculture and mixture. A trade-off between biomass and growth rate in monoculture was found for all species, and thus fast-growing species built up low biomasses and slow-growing species reached high biomasses in monoculture. As the fast-growing, low-productive species monopolised nutrients in the mixtures, they became the dominant species resulting in the observed community underyielding. These findings suggest community overyielding when biomasses of the component species are positively correlated with their growth rates in monocultures. Aquatic microcosm experiments with an extensive design were performed to get a broad range of community responses. The phytoplankton communities differed in species diversity (1, 2, 4, 8, and 12), functional diversity (1, 2, 3, and 4) and community composition. The species/functional diversity positively affected community biomass, revealing overyielding in most of the communities. This was mainly caused by a positive complementarity effect which can be attributed to resource use complementarity and/or facilitative interaction among the species. Overyielding of more diverse communities occurred when the biomass of the component species was correlated positively with their growth rates in monoculture and thus, fast-growing and high-productive species were dominant in mixtures. This and the study mentioned above generated an emergent pattern for community overyielding and underyielding from the relationship between biomass and growth rate in monoculture as long as the initial community structure prevailed. Invasive species can largely affect ecosystem processes, whereas invasion is also influenced by diversity. To date, studies revealed negative and positive diversity effects on the invasibility (susceptibility of a community to the invasion by new species). The effect of productivity (nutrient concentration ranging from 10 to 640 µg P L-1), herbivory (presence/absence of the generalist feeder) and diversity (3, 4, 6 species were randomly chosen from the resident species pool) on the invasibility of phytoplankton communities consisting of 10 resident species was investigated using semi-continuous microcosms. Two functionally diverse invaders were chosen: the filamentous and less-edible cynaobacterium C. raciborskii and the unicellular and well-edible phytoflagellate Cryptomonas sp. The phytoflagellate indirectly benefited from grazing pressure of herbivores whereas C. raciborskii suffered more from it. Diversity did not affect the invasibility of the phytoplankton communities. Rather, it was strongly influenced by the functional traits of the resident and invasive species.
This work presents the synthesis and the self-assembly of symmetrical amphiphilic ABA and BAB triblock copolymers in dilute, semi-concentrated and highly concentrated aqueous solution. A series of new bifunctional bistrithiocarbonates as RAFT agents was used to synthesise these triblock copolymers, which are characterised by a long hydrophilic middle block and relatively small, but strongly hydrophobic end blocks. As hydrophilic A blocks, poly(N-isopropylacrylamide) (PNIPAM) and poly(methoxy diethylene glycol acrylate) (PMDEGA) were employed, while as hydrophobic B blocks, poly(4-tert-butyl styrene), polystyrene, poly(3,5-dibromo benzyl acrylate), poly(2-ethylhexyl acrylate), and poly(octadecyl acrylate) were explored as building blocks with different hydrophobicities and glass transition temperatures. The five bifunctional trithiocarbonates synthesised belong to two classes: the first are RAFT agents, which position the active group of the growing polymer chain at the outer ends of the polymer (Z-C(=S)-S-R-S-C(=S)-Z, type I). The second class places the active groups in the middle of the growing polymer chain (R-S-C(=S)-Z-C(=S)-S-R, type II). These RAFT agents enable the straightforward synthesis of amphiphilic triblock copolymers in only two steps, allowing to vary the nature of the hydrophobic blocks as well as the length of the hydrophobic and hydrophilic blocks broadly with good molar mass control and narrow polydispersities. Specific side reactions were observed among some RAFT agents including the elimination of ethylenetrithiocarbonate in the early stage of the polymerisation of styrene mediated by certain agents of the type II, while the use of the RAFT agents of type I resulted in retardation of the chain extension of PNIPAM with styrene. These results underline the need of a careful choice of RAFT agents for a given task. The various copolymers self-assemble in dilute and semi-concentrated aqueous solution into small flower-like micelles. No indication for the formation of micellar clusters was found, while only at high concentration, physical hydrogels are formed. The reversible thermoresponsive behaviour of the ABA and BAB type copolymer solutions in water with A made of PNIPAM was examined by turbidimetry and dynamic light scattering (DLS). The cloud point of the copolymers was nearly identical to the cloud point of the homopolymer and varied between 28-32 °C with concentrations from 0.01 to 50 wt%. This is attributed to the formation of micelles where the hydrophobic blocks are shielded from a direct contact with water, so that the hydrophobic interactions of the copolymers are nearly the same as for pure PNIPAM. Dynamic light scattering measurements showed the presence of small micelles at ambient temperature. The aggregate size dramatically increased above the cloud point, indicating a change of aggregate morphology into clusters due to the thermosensitivity of the PNIPAM block. The rheological behaviour of the amphiphilic BAB triblock copolymers demonstrated the formation of hydrogels at high concentrations, typically above 30-35 wt%. The minimum concentration to induce hydrogels decreased with the increasing glass transition temperatures and increasing length of the end blocks. The weak tendency to form hydrogels was attributed to a small share of bridged micelles only, due to the strong segregation regime occurring. In order to learn about the role of the nature of the thermoresponsive block for the aggregation, a new BAB triblock copolymer consisting of short polystyrene end blocks and PMDEGA as stimuli-responsive middle block was prepared and investigated. Contrary to PNIPAM, dilute aqueous solutions of PMDEGA and of its block copolymers showed reversible phase transition temperatures characterised by a strong dependence on the polymer composition. Moreover, the PMDEGA block copolymer allowed the formation of physical hydrogels at lower concentration, i.e. from 20 wt%. This result suggests that PMDEGA has a higher degree of water-swellability than PNIPAM.
Analytical ultracentrifugation (AUC) has made an important contribution to polymer and particle characterization since its invention by Svedberg (Svedberg and Nichols 1923; Svedberg and Pederson 1940) in 1923. In 1926, Svedberg won the Nobel price for his scientific work on disperse systems including work with AUC. The first important discovery performed with AUC was to show the existence of macromolecules. Since that time AUC has become an important tool to study polymers in biophysics and biochemistry. AUC is an absolute technique that does not need any standard. Molar masses between 200 and 1014 g/mol and particle size between 1 and 5000 nm can be detected by AUC. Sample can be fractionated into its components due to its molar mass, particle size, structure or density without any stationary phase requirement as it is the case in chromatographic techniques. This very property of AUC earns it an important status in the analysis of polymers and particles. The distribution of molar mass, particle sizes and densities can be measured with the fractionation. Different types of experiments can give complementary physicochemical parameters. For example, sedimentation equilibrium experiments can lead to the study of pure thermodynamics. For complex mixtures, AUC is the main method that can analyze the system. Interactions between molecules can be studied at different concentrations without destroying the chemical equilibrium (Kim et al. 1977). Biologically relevant weak interactions can also be monitored (K ≈ 10-100 M-1). An analytical ultracentrifuge experiment can yield the following information: • Molecular weight of the sample • Number of the components in the sample if the sample is not a single component • Homogeneity of the sample • Molecular weight distribution if the sample is not a single component • Size and shape of macromolecules & particles • Aggregation & interaction of macromolecules • Conformational changes of macromolecules • Sedimentation coefficient and density distribution Such an extremely wide application area of AUC allows the investigation of all samples consisting of a solvent and a dispersed or dissolved substance including gels, micro gels, dispersions, emulsions and solutions. Another fact is that solvent or pH limitation does not exist for this method. A lot of new application areas are still flourishing, although the technique is 80 years old. In 1970s, 1500 AUC were operational throughout the world. At those times, due to the limitation in detection technologies, experimental results were obtained with photographic records. As time passed, faster techniques such as size exclusion chromatography (SEC), light scattering (LS) or SDS-gel electrophoresis occupied the same research fields with AUC. Due to these relatively new techniques, AUC began to loose its importance. In the 1980s, only a few AUC were in use throughout the world. In the beginning of the 1990s a modern AUC -the Optima XL-A - was released by Beckman Instruments (Giebeler 1992). The Optima XL-A was equipped with a modern computerized scanning absorption detector. The addition of Rayleigh Interference Optics is introduced which is called XL-I AUC. Furthermore, major development in computers made the analysis easier with the help of new analysis software. Today, about 400 XL-I AUC exist worldwide. It is usually applied in the industry of pharmacy, biopharmacy and polymer companies as well as in academic research fields such as biochemistry, biophysics, molecular biology and material science. About 350 core scientific publications which use analytical ultracentrifugation are published every year (source: SciFinder 2008 ) with an increasing number of references (436 reference in 2008). A tremendous progress has been made in method and analysis software after digitalization of experimental data with the release of XL-I. In comparison to the previous decade, data analysis became more efficient and reliable. Today, AUC labs can routinely use sophisticated data analysis methods for determination of sedimentation coefficient distributions (Demeler and van Holde 2004; Schuck 2000; Stafford 1992), molar mass distributions (Brookes and Demeler 2008; Brookes et al. 2006; Brown and Schuck 2006), interaction constants (Cao and Demeler 2008; Schuck 1998; Stafford and Sherwood 2004), particle size distributions with Angstrom resolution (Cölfen and Pauck 1997) and the simulations determination of size and shape distributions from sedimentation velocity experiments (Brookes and Demeler 2005; Brookes et al. 2006). These methods are also available in powerful software packages that combines various methods, such as, Ultrascan (Demeler 2005), Sedift/Sedphat (Schuck 1998; Vistica et al. 2004) and Sedanal (Stafford and Sherwood 2004). All these powerful packages are free of charge. Furthermore, Ultrascans source code is licensed under the GNU Public License (http://www.gnu.org/copyleft/gpl.html). Thus, Ultrascan can be further improved by any research group. Workshops are organized to support these software packages. Despite of the tremendous developments in data analysis, hardware for the system has not developed much. Although there are various user developed detectors in research laboratories, they are not commercially available. Since 1992, only one new optical system called “the fluorescence optics” (Schmidt and Reisner, 1992, MacGregor et al. 2004, MacGregor, 2006, Laue and Kroe, in press) has been commercialized. However, except that, there has been no commercially available improvement in the optical system. The interesting fact about the current hardware of the XL-I is that it is 20 years old, although there has been an enormous development in microelectronics, software and in optical systems in the last 20 years, which could be utilized for improved detectors. As examples of user developed detector, Bhattacharyya (Bhattacharyya 2006) described a Multiwavelength-Analytical Ultracentrifuge (MWL-AUC), a Raman detector and a small angle laser light scattering detector in his PhD thesis. MWL-AUC became operational, but a very high noise level prevented to work with real samples. Tests with the Raman detector were not successful due to the low light intensity and thus high integration time is required. The small angle laser light scattering detector could only detect latex particles but failed to detect smaller particles and molecules due to low sensitivity of the detector (a photodiode was used as detector). The primary motivation of this work is to construct a detector which can measure new physico-chemical properties with AUC with a nicely fractionated sample in the cell. The final goal is to obtain a multiwavelength detector for the AUC that measures complementary quantities. Instrument development is an option for a scientist only when there is a huge potential benefit but there is no available commercial enterprise developing appropriate equipment, or if there is not enough financial support to buy it. The first case was our motivation for developing detectors for AUC. Our aim is to use today’s technological advances in microelectronics, programming, mechanics in order to develop new detectors for AUC and improve the existing MWL detector to routine operation mode. The project has multiple aspects which can be listed as mechanical, electronical, optical, software, hardware, chemical, industrial and biological. Hence, by its nature it is a multidisciplinary project. Again by its nature it contains the structural problem of its kind; the problem of determining the exact discipline to follow at each new step. It comprises the risk of becoming lost in some direction. Having that fact in mind, we have chosen the simplest possible solution to any optical, mechanical, electronic, software or hardware problem we have encountered and we have always tried to see the overall picture. In this research, we have designed CCD-C-AUC (CCD Camera UV/Vis absorption detector for AUC) and SLS-AUC (Static Light Scattering detector for AUC) and tested them. One of the SLS-AUC designs produced successful test results, but the design could not be brought to the operational stage. However, the operational state Multiwavelength Analytical Ultracentrifuge (MWL-AUC) AUC has been developed which is an important detector in the fields of chemistry, biology and industry. In this thesis, the operational state Multiwavelength Analytical Ultracentrifuge (MWL-AUC) AUC is to be introduced. Consequently, three different applications of MWL-AUC to the aforementioned disciplines shall be presented. First of all, application of MWL-AUC to a biological system which is a mixture of proteins lgG, aldolase and BSA is presented. An application of MWL-AUC to a mass-produced industrial sample (β-carotene gelatin composite particles) which is manufactured by BASF AG, is presented. Finally, it is shown how MWL-AUC will impact on nano-particle science by investigating the quantum size effect of CdTe and its growth mechanism. In this thesis, mainly the relation between new technological developments and detector development for AUC is investigated. Pioneering results are obtained that indicate the possible direction to be followed for the future of AUC. As an example, each MWL-AUC data contains thousands of wavelengths. MWL-AUC data also contains spectral information at each radial point. Data can be separated to its single wavelength files and can be analyzed classically with existing software packages. All the existing software packages including Ultrascan, Sedfit, Sedanal can analyze only single wavelength data, so new extraordinary software developments are needed. As a first attempt, Emre Brookes and Borries Demeler have developed mutliwavelength module in order to analyze the MWL-AUC data. This module analyzes each wavelength separately and independently. We appreciate Emre Brookes and Borries Demeler for their important contribution to the development of the software. Unfortunately, this module requires huge amount of computer power and does not take into account the spectral information during the analysis. New software algorithms are needed which take into account the spectral information and analyze all wavelengths accordingly. We would like also invite the programmers of Ultrascan, Sedfit, Sedanal and the other programs, to develop new algorithms in this direction.
A huge number of applications require coherent radiation in the visible spectral range. Since diode lasers are very compact and efficient light sources, there exists a great interest to cover these applications with diode laser emission. Despite modern band gap engineering not all wavelengths can be accessed with diode laser radiation. Especially in the visible spectral range between 480 nm and 630 nm no emission from diode lasers is available, yet. Nonlinear frequency conversion of near-infrared radiation is a common way to generate coherent emission in the visible spectral range. However, radiation with extraordinary spatial temporal and spectral quality is required to pump frequency conversion. Broad area (BA) diode lasers are reliable high power light sources in the near-infrared spectral range. They belong to the most efficient coherent light sources with electro-optical efficiencies of more than 70%. Standard BA lasers are not suitable as pump lasers for frequency conversion because of their poor beam quality and spectral properties. For this purpose, tapered lasers and diode lasers with Bragg gratings are utilized. However, these new diode laser structures demand for additional manufacturing and assembling steps that makes their processing challenging and expensive. An alternative to BA diode lasers is the stripe-array architecture. The emitting area of a stripe-array diode laser is comparable to a BA device and the manufacturing of these arrays requires only one additional process step. Such a stripe-array consists of several narrow striped emitters realized with close proximity. Due to the overlap of the fields of neighboring emitters or the presence of leaky waves, a strong coupling between the emitters exists. As a consequence, the emission of such an array is characterized by a so called supermode. However, for the free running stripe-array mode competition between several supermodes occurs because of the lack of wavelength stabilization. This leads to power fluctuations, spectral instabilities and poor beam quality. Thus, it was necessary to study the emission properties of those stripe-arrays to find new concepts to realize an external synchronization of the emitters. The aim was to achieve stable longitudinal and transversal single mode operation with high output powers giving a brightness sufficient for efficient nonlinear frequency conversion. For this purpose a comprehensive analysis of the stripe-array devices was done here. The physical effects that are the origin of the emission characteristics were investigated theoretically and experimentally. In this context numerical models could be verified and extended. A good agreement between simulation and experiment was observed. One way to stabilize a specific supermode of an array is to operate it in an external cavity. Based on mathematical simulations and experimental work, it was possible to design novel external cavities to select a specific supermode and stabilize all emitters of the array at the same wavelength. This resulted in stable emission with 1 W output power, a narrow bandwidth in the range of 2 MHz and a very good beam quality with M²<1.5. This is a new level of brightness and brilliance compared to other BA and stripe-array diode laser systems. The emission from this external cavity diode laser (ECDL) satisfied the requirements for nonlinear frequency conversion. Furthermore, a huge improvement to existing concepts was made. In the next step newly available periodically poled crystals were used for second harmonic generation (SHG) in single pass setups. With the stripe-array ECDL as pump source, more than 140 mW of coherent radiation at 488 nm could be generated with a very high opto-optical conversion efficiency. The generated blue light had very good transversal and longitudinal properties and could be used to generate biphotons by parametric down-conversion. This was feasible because of the improvement made with the infrared stripe-array diode lasers due to the development of new physical concepts.
With the rise of electronic integration between organizations, the need for a precise specification of interaction behavior increases. Information systems, replacing interaction previously carried out by humans via phone, faxes and emails, require a precise specification for handling all possible situations. Such interaction behavior is described in process choreographies. Choreographies enumerate the roles involved, the allowed interactions, the message contents and the behavioral dependencies between interactions. Choreographies serve as interaction contract and are the starting point for adapting existing business processes and systems or for implementing new software components. As a thorough analysis and comparison of choreography modeling languages is missing in the literature, this thesis introduces a requirements framework for choreography languages and uses it for comparing current choreography languages. Language proposals for overcoming the limitations are given for choreography modeling on the conceptual and on the technical level. Using an interconnection modeling style, behavioral dependencies are defined on a per-role basis and different roles are interconnected using message flow. This thesis reveals a number of modeling "anti-patterns" for interconnection modeling, motivating further investigations on choreography languages following the interaction modeling style. Here, interactions are seen as atomic building blocks and the behavioral dependencies between them are defined globally. Two novel language proposals are put forward for this modeling style which have already influenced industrial standardization initiatives. While avoiding many of the pitfalls of interconnection modeling, new anomalies can arise in interaction models. A choreography might not be realizable, i.e. there does not exist a set of interacting roles that collectively realize the specified behavior. This thesis investigates different dimensions of realizability.
Das serotonerge System besitzt sowohl bei Invertebraten als auch bei Vertebraten eine große Bedeutung für die Kontrolle und Modulation vieler physiologischer Prozesse und Verhaltensleistungen. Bei der Honigbiene Apis mellifera spielt Serotonin (5-Hydroxytryptamin, 5-HT) eine wichtige Rolle bei der Arbeitsteilung und dem Lernen. Die 5-HT-Rezeptoren, die überwiegend zur Familie der G-Protein gekoppelten Rezeptoren (GPCRs) gehören, besitzen eine Schlüsselstellung für das Verständnis der molekularen Mechanismen der serotonergen Signalweiterleitung. Ziel dieser Arbeit war es, 5-HT-Rezeptoren der Honigbiene zu charakterisieren. Dazu zählt die Identifizierung der molekularen Struktur, die Ermittlung der intrazellulären Signalwege, die Erstellung von pharmakologischen Profilen, die Ermittlung der Expressionsmuster und die Ermittlung der physiologischen Funktionen der Rezeptoren. Mit Hilfe der Informationen aus dem Honey Bee Genome Project, konnten drei RezeptorcDNAs kloniert werden. Vergleiche der abgeleiteten Aminosäuresequenzen mit den Aminosäuresequenzen bereits charakterisierter Rezeptoren legten nahe, dass es sich dabei um einen 5-HT1- (Am5-HT1) und zwei 5-HT2-Rezeptoren (Am5-HT2α und Am5-HT2β) handelt. Die strukturelle Analyse der abgeleiteten Aminosäuresequenz dieser Rezeptoren postuliert das Vorhandensein der charakteristischen heptahelikalen Architektur von GPCRs und zeigt starkkonservierte Motive, die bedeutend für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an G-Proteine sind. Für die beiden 5 HT2-Rezeptoren konnte zudem alternatives Spleißen nachgewiesen werden. Mit den cDNAs des Am5-HT1- und des Am5-HT2α-Rezeptors wurden HEK293-Zellen stabil transfiziert und anschließend die Rezeptoren funktionell und pharmakologisch analysiert. Am5-HT1 hemmt bei Aktivierung abhängig von der 5-HT-Konzentration die cAMPProduktion.Die Substanzen 5-Methoxytryptamin (5-MT) und 5-Carboxamidotryptamin konnten als Agonisten identifiziert werden. Methiothepin dagegen blockiert die 5-HTWirkung vollständig. Prazosin und WAY100635 stellen partielle Antagonisten des Am5-HT1-Rezeptors dar. Der Am5-HT2_-Rezeptor stimuliert bei Aktivierung die Synthese des sekundären Botenstoffs Inositoltrisphosphat, was wiederum zu einer messbaren Erhöhung der intrazellulären Ca2+-Konzentration führt. 5-MT und 8-OH-DPAT zeigen eine deutliche agonistische Wirkung auf Am5-HT2α. Dagegen besitzen Clozapin, Methiothepin, Mianserin und Cyproheptadin die Fähigkeit, die 5-HT-Wirkung um 51-64 % zu vermindern. Die bereits erwähnte alternative Spleißvariante von Am5-HT2α wurde ebenfalls in HEK293-Zellen exprimiert und analysiert, scheint jedoch eigenständig nicht funktionell zu sein. Gegen die dritte cytoplasmatische Schleife (CPL3) wurde ein polyklonales Antiserum generiert. Dieses erkennt in Western-Blot-Analysen ein Protein mit einer Masse von ca. 50 kDa. Durch immunhistochemische Analysen am Bienengehirn wurde die Verteilung des Rezeptors genauer untersucht. Dabei zeigten die optischen Neuropile, besonders die Lamina und die Ocellarnerven, stets eine starke Markierung. Außerdem wird der Rezeptor in den α- und β-Loben sowie der Lippe, dem Basalring und dem Pedunculus der Pilzkörper exprimiert. Doppelmarkierungen zeigen stets eine enge Nachbarschaft von serotonergen Fasern und dem Am5-HT1-Rezeptor. Weiterhin konnte gezeigt werden, dass der Am5-HT1-Rezeptor sehr wahrscheinlich an der Regulation des phototaktischen Verhalten der Honigbiene beteiligt ist. Verfütterung von 5-HT hat eine deutlich negative Wirkung auf das phototaktischen Verhalten. Diese kann durch den Am5-HT1-Rezeptor-Agonisten 5-CT imitiert werden. Schließlich konnte gezeigt werden, dass der Am5-HT1-Antagonist Prazosin die 5-HT-Wirkung deutlich vermindern kann.
Fiscal federalism has been an important topic among public finance theorists in the last four decades. There is a series of arguments that decentralization of governments enhances growth by improving allocation efficiency. However, the empirical studies have shown mixed results for industrialized and developing countries and some of them have demonstrated that there might be a threshold level of economic development below which decentralization is not effective. Developing and transition countries have developed a variety of forms of fiscal decentralization as a possible strategy to achieve effective and efficient governmental structures. A generalized principle of decentralization due to the country specific circumstances does not exist. Therefore, decentralization has taken place in different forms in various countries at different times, and even exactly the same extent of decentralization may have had different impacts under different conditions. The purpose of this study is to investigate the current state of the fiscal decentralization in Mongolia and to develop policy recommendations for the efficient and effective intergovernmental fiscal relations system for Mongolia. Within this perspective the analysis concentrates on the scope and structure of the public sector, the expenditure and revenue assignment as well as on the design of the intergovernmental transfer and sub-national borrowing. The study is based on data for twenty-one provinces and the capital city of Mongolia for the period from 2000 to 2009. As a former socialist country Mongolia has had a highly centralized governmental sector. The result of the analysis below revealed that the Mongolia has introduced a number of decentralization measures, which followed a top down approach and were slowly implemented without any integrated decentralization strategy in the last decade. As a result Mongolia became de-concentrated state with fiscal centralization. The revenue assignment is lacking a very important element, for instance significant revenue autonomy given to sub-national governments, which is vital for the efficient service delivery at the local level. According to the current assignments of the expenditure and revenue responsibilities most of the provinces are unable to provide a certain national standard of public goods supply. Hence, intergovernmental transfers from the central jurisdiction to the sub-national jurisdictions play an important role for the equalization of the vertical and horizontal imbalances in Mongolia. The critical problem associated with intergovernmental transfers is that there is not a stable, predictable and transparent system of transfer allocation. The amount of transfers to sub-national governments is determined largely by political decisions on ad hoc basis and disregards local differences in needs and fiscal capacity. Thus a fiscal equalization system based on the fiscal needs of the provinces should be implemented. The equalization transfers will at least partly offset the regional disparities in revenues and enable the sub-national governments to provide a national minimum standard of local public goods.
Die visuelle Kommunikation ist eine effiziente Methode, um dynamische Phänomene zu beschreiben. Informationsobjekte präzise wahrzunehmen, einen schnellen Zugriff auf strukturierte und relevante Informationen zu ermöglichen, erfordert konsistente und nach dem formalen Minimalprinzip konzipierte Analyse- und Darstellungsmethoden. Dynamische Raumphänomene in Geoinformationssystemen können durch den Mangel an konzeptionellen Optimierungsanpassungen aufgrund ihrer statischen Systemstruktur nur bedingt die Informationen von Raum und Zeit modellieren. Die Forschung in dieser Arbeit ist daher auf drei interdisziplinäre Ansätze fokussiert. Der erste Ansatz stellt eine echtzeitnahe Datenerfassung dar, die in Geodatenbanken zeitorientiert verwaltet wird. Der zweite Ansatz betrachtet Analyse- und Simulationsmethoden, die das dynamische Verhalten analysieren und prognostizieren. Der dritte Ansatz konzipiert Visualisierungsmethoden, die insbesondere dynamische Prozesse abbilden. Die Symbolisierung der Prozesse passt sich bedarfsweise in Abhängigkeit des Prozessverlaufes und der Interaktion zwischen Datenbanken und Simulationsmodellen den verschiedenen Entwicklungsphasen an. Dynamische Aspekte können so mit Hilfe bewährter Funktionen aus der GI-Science zeitnah mit modularen Werkzeugen entwickelt und visualisiert werden. Die Analyse-, Verschneidungs- und Datenverwaltungsfunktionen sollen hierbei als Nutzungs- und Auswertungspotential alternativ zu Methoden statischer Karten dienen. Bedeutend für die zeitliche Komponente ist das Verknüpfen neuer Technologien, z. B. die Simulation und Animation, basierend auf einer strukturierten Zeitdatenbank in Verbindung mit statistischen Verfahren. Methodisch werden Modellansätze und Visualisierungstechniken entwickelt, die auf den Bereich Verkehr transferiert werden. Verkehrsdynamische Phänomene, die nicht zusammenhängend und umfassend darstellbar sind, werden modular in einer serviceorientierten Architektur separiert, um sie in verschiedenen Ebenen räumlich und zeitlich visuell zu präsentieren. Entwicklungen der Vergangenheit und Prognosen der Zukunft werden über verschiedene Berechnungsmethoden modelliert und visuell analysiert. Die Verknüpfung einer Mikrosimulation (Abbildung einzelner Fahrzeuge) mit einer netzgesteuerten Makrosimulation (Abbildung eines gesamten Straßennetzes) ermöglicht eine maßstabsunabhängige Simulation und Visualisierung des Mobilitätsverhaltens ohne zeitaufwendige Bewertungsmodellberechnungen. Zukünftig wird die visuelle Analyse raum-zeitlicher Veränderungen für planerische Entscheidungen ein effizientes Mittel sein, um Informationen übergreifend verfügbar, klar strukturiert und zweckorientiert zur Verfügung zu stellen. Der Mehrwert durch visuelle Geoanalysen, die modular in einem System integriert sind, ist das flexible Auswerten von Messdaten nach zeitlichen und räumlichen Merkmalen.
Zum Erhalt vom Aussterben bedrohter Papageienvögel (Psittaciformes) ist die Nachzucht in Menschenobhut neben dem Erhalt freilebender Populationen von großer Bedeutung, die Reproduktion bestimmter Arten gelingt allerdings nur unzureichend. Als Hauptgrund dafür gilt die Zwangsverpaarung im Rahmen von Zuchtprogrammen (Beispiel: Europäisches Erhaltungszuchtprogramm, EEP), hier werden Brutpaare hauptsächlich nach genetischen Aspekten zusammengestellt. Der reproduktive Erfolg ist bei den meisten Papageienarten, die in dauerhaften Paarbindungen leben (perennial monogamy), eng der Paarbindung korreliert. Eine freie Partnerwahl ist demnach von großer Bedeutung für die Zucht in Menschenobhut, im Rahmen von Erhaltungszuchtprogrammen jedoch nur selten möglich. Das Ziel der Untersuchung war, eine wissenschaftlich begründete Methode zu entwickeln, durch die es möglich sein soll, das Fortpflanzungspotential von Brutpaaren der Gattung Ara anhand der Paarbindung zu bestimmen. Dafür wurde die Bedeutung der Qualität der Paarbindung der Brutpaare für den Lebens-Reproduktionserfolg (Lifetime-reproductive success, LRS) untersucht. Die Datenaufnahme erfolgte in dem Zuchtzentrum 'La Vera' der Loro Parque Fundación auf Teneriffa/ Spanien. Hier wurden in den Jahren 2006 und 2007 21 Brutpaare der Gattung Ara untersucht. Die Paarbindung wurde zum Einen durch typisches Paarbindungsverhalten und zum Anderen durch die physiologische Abstimmung der einzelnen Brutpaare anhand der Ausschüttung des Steroidhormons Testosteron dargestellt. Das Paarbindungsverhalten setzte sich aus der ‚Abstimmung der Tagesaktivität’, dem ‚Kontaktverhalten’ und den ‚sozialen Interaktionen’ zusammen. Zur Abstimmung der Tagesaktivität zählten die Verhaltensweisen Ruhen, Sitzen, Nahrungsaufnahme, Gefiederpflege, Beschäftigung und Lokomotion. Unter Kontaktverhalten wurden das Überschreiten der Individualdistanz bei bestimmten Verhaltensweisen und die Rollenverteilung der Geschlechter untersucht. Unter ‚sozialen Interaktionen’ wurden die Dauer und der Häufigkeit der sozialen Gefiederpflege und der Sozialen Index zusammengefasst. Bei der sozialen Gefiederpflege wurde die Dauer und die Häufigkeit der Phasen erhoben, sowie der jeweilige Initiator dieser Interaktion. Zusätzlich wurde untersucht, welches Geschlecht, wie häufig und mit welcher Dauer aktiv an der sozialen Gefiederpflege beteiligt war. Aus den Beobachtungen wurde der soziale Index berechnet, der angibt, wie das Verhältnis sozio-positiver zu agonistischen Interaktionen für jedes Individuum, sowie das Paar an sich ist. Zur Messung der Testosteron-Ausschüttung der Partnertiere wurden von September bis November 2007 über einen Zeitraum von 9 Wochen jede Woche einmal für jedes Individuum Kotproben gesammelt. Mit der Analyse der Proben wurde das Veterinär-Physiologisch-Chemische-Institut der Universität Leipzig unter der Leitung von Prof. Dr. Almuth Einspanier beauftragt. Zur Ermittlung des Hormongehalts in den gewonnenen Kotproben diente ein kompetitiver Doppelantikörper-Enzymimmunoassay (EIA). Das Fortpflanzungspotential wurde über die Anzahl der Eier, Gelege und Jungtiere, sowie über die Gelegegröße dargestellt. Diese Daten geben, bezogen auf die Dauer der Paarbindung, Auskunft über die Produktivität eines Brutpaares, anhand dessen zusätzlich ein Produktivitäts-Koeffizient berechnet wurde. Des weiteren sollte die Anzahl der von einem Brutpaar selbständig großgezogenen Jungtiere Auskunft über die Fähigkeit zur kooperativen Jungenaufzucht geben. Zur Untersuchung der Bedeutung der Paarbindungsqualität wurden Diskriminanzfunktionsanalysen und Regressionsanalysen durchgeführt, wozu die untersuchten Brutpaare anhand ihres Fortpflanzungspotentials in verschiedene Gruppen eingeteilt wurden. Anhand der Ergebnisse der Studie konnte gezeigt werden, dass das Fortpflanzungspotential von Brutpaaren von verschiedenen Kriterien, die die Paarbindungsqualität charakterisieren, abhängt. Dabei ist zwischen der Produktivität und der Fähigkeit zur kooperativen Jungenaufzucht zu unterscheiden. Die Produktivität eines Paares wurde hinsichtlich der abgestimmten Tagesaktivität positiv vom synchronen Ruhen mit dem Partner beeinflusst, sowie von der Häufigkeit und Dauer der vom Weibchen ausgehenden sozialen Gefiederpflege. Brutpaare mit hoher Produktivität waren zudem über eine hohe ‚intra-Paar Fluktuation’ des Steroidhormons Testosteron gekennzeichnet. Die Brutpaare, die in der Lage sind, ihre Jungtiere in Kooperation großzuziehen, zeigten ebenfalls einen hohen Anteil zeitlich mit dem Partner abgestimmter Ruhephasen, zudem häufiges Ruheverhalten in Körperkontakt zum Partner und ein hohes zeitliches Investment der Männchen bei der Initiierung und Durchführung sozialer Gefiederpflege. Darüber hinaus zeigten Männchen, die einen Beitrag zur kooperativen Jungenaufzucht leisten, eine wesentlich geringere durchschnittliche Testosteron-Konzentration – bezogen auf den Untersuchungszeitraum, als Männchen, die Brutpaaren angehören, die nicht zur selbständigen Jungenaufzucht fähig sind. Dieses Ergebnis spiegelt die Bedeutung von Testosteron bei der elterlichen Fürsorge wider und bietet einen Anhaltspunkt für weitere Untersuchungen. Die Untersuchung konnte zeigen, dass es möglich und sinnvoll ist, das individuelle Verhalten von Tieren in Menschenobhut für den Erhalt bedrohter Tierarten einzusetzen. Weitere, auf dieser Studie aufbauende Untersuchungen sollten zum Ziel haben, zuverlässig die Brutpaare erkennbar zu machen, die über ein gutes Fortpflanzungspotential verfügen. Auf diese Weise kann unzureichender Reproduktionserfolg bedrohter Papageienarten in Menschenobhut infolge von Zwangsverpaarung minimiert werden.
Throughout its empirical research history eye movement research has always been aware of the differences in reading behavior induced by individual differences and task demands. This work introduces a novel comprehensive concept of reading strategy, comprising individual differences in reading style and reading skill as well as reader goals. In a series of sentence reading experiments recording eye movements, the influence of reading strategies on reader- and word-level effects assuming distributed processing has been investigated. Results provide evidence for strategic, top-down influences on eye movement control that extend our understanding of eye guidance in reading.
Although the basic structure of biological membranes is provided by the lipid bilayer, most of the specific functions are carried out by membrane proteins (MPs) such as channels, ion-pumps and receptors. Additionally, it is known, that mutations in MPs are directly or indirectly involved in many diseases. Thus, structure determination of MPs is of major interest not only in structural biology but also in pharmacology, especially for drug development. Advances in structural biology of membrane proteins (MPs) have been strongly supported by the success of three leading techniques: X-ray crystallography, electron microscopy and solution NMR spectroscopy. However, X-ray crystallography and electron microscopy, require highly diffracting 3D or 2D crystals, respectively. Today, structure determination of non-crystalline solid protein preparations has been made possible through rapid progress of solid-state MAS NMR methodology for biological systems. Castellani et. al. solved and refined the first structure of a microcrystalline protein using only solid-state MAS NMR spectroscopy. These successful application open up perspectives to access systems that are difficult to crystallise or that form large heterogeneous complexes and insoluble aggregates, for example ligands bound to a MP-receptor, protein fibrils and heterogeneous proteins aggregates. Solid-state MAS NMR spectroscopy is in principle well suited to study MP at atomic resolution. In this thesis, different types of MP preparations were tested for their suitability to be studied by solid-state MAS NMR. Proteoliposomes, poorly diffracting 2D crystals and a PEG precipitate of the outer membrane protein G (OmpG) were prepared as a model system for large MPs. Results from this work, combined with data found in the literature, show that highly diffracting crystalline material is not a prerequirement for structural analysis of MPs by solid-state MAS NMR. Instead, it is possible to use non-diffracting 3D crystals, MP precipitates, poorly diffracting 2D crystals and proteoliposomes. For the latter two types of preparations, the MP is reconstituted into a lipid bilayer, which thus allows the structural investigation in a quasi-native environment. In addition, to prepare a MP sample for solid-state MAS NMR it is possible to use screening methods, that are well established for 3D and 2D crystallisation of MPs. Hopefully, these findings will open a fourth method for structural investigation of MP. The prerequisite for structural studies by NMR in general, and the most time consuming step, is always the assignment of resonances to specific nuclei within the protein. Since the last few years an ever-increasing number of assignments from solid-state MAS NMR of uniformly carbon and nitrogen labelled samples is being reported, mostly for small proteins of up to around 150 amino acids in length. However, the complexity of the spectra increases with increasing molecular weight of the protein. Thus the conventional assignment strategies developed for small proteins do not yield a sufficiently high degree of assignment for the large MP OmpG (281 amino acids). Therefore, a new assignment strategy to find starting points for large MPs was devised. The assignment procedure is based on a sample with [2,3-13C, 15N]-labelled Tyr and Phe and uniformly labelled alanine and glycine. This labelling pattern reduces the spectral overlap as well as the number of assignment possibilities. In order to extend the assignment, four other specifically labelled OmpG samples were used. The assignment procedure starts with the identification of the spin systems of each labelled amino acid using 2D 13C-13C and 3D NCACX correlation experiments. In a second step, 2D and 3D NCOCX type experiments are used for the sequential assignment of the observed resonances to specific nuclei in the OmpG amino acid sequence. Additionally, it was shown in this work, that biosynthetically site directed labelled samples, which are normally used to observe long-range correlations, were helpful to confirm the assignment. Another approach to find assignment starting points in large protein systems, is the use of spectroscopic filtering techniques. A filtering block that selects methyl resonances was used to find further assignment starting points for OmpG. Combining all these techniques, it was possible to assign nearly 50 % of the observed signals to the OmpG sequence. Using this information, a prediction of the secondary structure elements of OmpG was possible. Most of the calculated motifs were in good aggreement with the crystal structures of OmpG. The approaches presented here should be applicable to a wide variety of MPs and MP-complexes and should thus open a new avenue for the structural biology of MPs.
Die vorliegende Untersuchung zeigt das ständige Wachstum der Dimension und Bedeutung der staatlichen Schutzpflichten als eine eigenständige Funktion der Grundrechte. Mit jedem Fortschritt und der Entwicklung in der modernen Welt, entstehen in der Gesellschaft immer wieder neue Bereiche, die gesetzlicher Regulierung bedürfen. Daher ist die staatliche Aufgabe eindeutig: Der Staat muss die in der Verfassung ausgelegten Prinzipien in der Realität durch die Gesetze umsetzen und sie ständig wiederkehrend nachbessern. Daher ist der Staat gefordert, die Einzelnen repressiv und präventiv zu schützen. Die Dissertation untersucht die Problematik von staatlichen Schutzpflichten im Rahmen der Grundrechte der georgischen Verfassung vom 24. August 1995 im Vergleich mit den Menschenrechten und Grundfreiheiten der Europäischen Menschenrechtskonvention. Die Arbeit greift ein Grundrechtsproblem auf, das sich gerade in rechtlichen und politischen Umbruchssituationen wie diejenige, die Georgien als Nachfolgestaat der zerbrochenen Sowjetunion durchlebt, als besonders wichtig erweist. Auf dem Weg zur dogmatischen Entfaltung einer grundrechtlichen Schutzpflicht wird als eine Art Leitbild die Europäische Menschenrechtskonvention (EMRK) herangezogen. Dies erklärt sich aus der Natur der EMRK, die sich als eine Art Verfassung für Europa darstellt und in Georgien seit 1999 in Kraft ist. In der Arbeit wird auf die deutsche Schutzpflichtenlehre verwiesen. Das erklärt sich aus der in Deutschland schon seit etwa 30 Jahren geführten Diskussion, die immer noch nicht abgeschlossen ist, aber aus der sich bemerkenswerte und kontroverse Ergebnisse ziehen lassen. Die Arbeit zeigt, dass die georgische Verfassung zahlreiche Ansätze der staatlichen Schutzpflichten – allgemeiner und konkreter Art – liefert, die auch vor allem in der Rechtsprechung des Georgischen Verfassungsgerichts verschiedentlich schon aufgegriffen wurden, durchaus zum Teil unter Rückgriff auf Aussagen der Europäischen Menschenrechtskonvention (EMRK) bzw. des Europäischen Gerichtshofes für Menschenrechte (EGMR). Den Bereich der grundrechtlichen Schutzpflichten der georgischen Verfassung auszuleuchten ist für eine relativ neue Rechtstaatlichkeit eines postsowjetischen Staates wichtig, um den Anstoß für eine dringend nötige Debatte zu geben.
Die Etablierung eines gesunden Ernährungsverhaltens unserer Kinder ist die wichtigste Voraussetzung für ihre körperliche, kognitive und emotionale Entwicklung. Dabei sind neben einer genetischen Disposition und kulturellen Gegebenheiten vor allem die Einflüsse der jeweiligen Betreuungspersonen ausschlaggebend. Die Eltern steuern sowohl direkt (durch Aufforderungen, Verbote u.ä.) als auch indirekt (durch die Förderung eigenverantwortlicher Entscheidungen u.ä.) das Ernährungsverhalten ihres Kindes. Untersuchungen zum mütterlichen Steuerungsverhalten konzentrierten sich bisher vorwiegend auf die Betrachtung direkter Strategien sowie auf altershomogene und sozial besser gestellte Gruppen. Aufgrund möglicher Verzerrungen durch die Betrachtung einzelner Ausschnitte des Zusammenhangs zwischen Steuerung und Ernährung wurde in der vorliegenden Arbeit ein Gesamtmodell spezifiziert, welches den Zusammenhang zwischen elterlicher Steuerung und kindlicher Ernährung unter Berücksichtigung von Sozial- und Gewichtsfaktoren abbildet. Dazu wurden drei Erhebungen mit insgesamt über 900 Müttern 1 – 10-jähriger Kinder durchgeführt. Innerhalb dieser Untersuchungen ist es gelungen, erstmalig ein deutschsprachiges Instrument zur Messung elterlicher Steuerungsstrategien in der Essenssituation (ISS) zu entwickeln. Die Analysen zeigten, dass bisher nur selten untersuchte Strategien, wie das explizite Bemühen um Vorbildwirkung und das Erlauben von eigenverantwortlichen Entscheidungen des Kindes, von den Müttern häufig angewandt werden. Die Analyse des komplexen Wirkungsgefüge von Steuerung, kindlicher Ernährung sowie sozialer und gewichtsbezogener Faktoren zeigte weiterhin, dass neben stabilen Faktoren, wie dem mütterlichen Status und dem Alter des Kindes, ein entscheidender Anteil der mütterlichen Steuerungsstrategien für die kindliche Ernährung verantwortlich ist. Die berichteten Ergebnisse zeigen auf, wie relevant die gemeinsame Betrachtung von gesunden und problematischen Nahrungsmitteln sowie die den Zusammenhang zwischen Steuerung und Ernährung beeinflussenden Faktoren innerhalb eines Modells ist. Zusammengefasst scheint vor allem die Steuerung durch Belohnung von und mit bestimmten Nahrungsmitteln eine für das kindliche Ernährungsverhalten und das Übergewichtsrisiko besonders kritische Strategie zu sein. Dies ist umso bedeutender, als bisherige Untersuchungen dieses Verhalten häufig in restriktive Strategien integriert betrachteten. Die separate Analyse wies jedoch darauf hin, dass vor allem die belohnenden Verhaltensanteile relevant sind. Dies zeigt, dass es für die Entwicklung einer gesunden kindlichen Ernährung tatsächlich veränderbare Verhaltensweisen gibt, die Eltern in Präventionsprogrammen oder anderen mit Kursen zum kindlichen Wohl assoziierten Einrichtungen vermittelt werden können.
The adaptive evolutionary potential of a species or population to cope with omnipresent environmental challenges is based on its genetic variation. Variability at immune genes, such as the major histocompatibility complex (MHC) genes, is assumed to be a very powerful and effective tool to keep pace with diverse and rapidly evolving pathogens. In my thesis, I studied natural levels of variation at the MHC genes, which have a key role in immune defence, and parasite burden in different small mammal species. I assessed the importance of MHC variation for parasite burden in small mammal populations in their natural environment. To understand the processes shaping different patterns of MHC variation I focused on evidence of selection through pathogens upon the host. Further, I addressed the issue of low MHC diversity in populations or species, which could potentially arise as a result from habitat fragmentation and isolation. Despite their key role in the mammalian evolution the marsupial MHC has been rarely investigated. Studies on primarily captive or laboratory bred individuals indicated very little or even no polymorphism at the marsupial MHC class II genes. However, natural levels of marsupial MHC diversity and selection are unknown to date as studies on wild populations are virtually absent. I investigated MHC II variation in two Neotropical marsupial species endemic to the threatened Brazilian Atlantic Forest (Gracilinanus microtarsus, Marmosops incanus) to test whether the predicted low marsupial MHC class II polymorphism proves to be true under natural conditions. For the first time in marsupials I confirmed characteristics of MHC selection that were so far only known from eutherian mammals, birds, and fish: Positive selection on specific codon sites, recombination, and trans-species polymorphism. Beyond that, the two marsupial species revealed considerable differences in their MHC class II diversity. Diversity was rather low in M. incanus but tenfold higher in G. microtarsus, disproving the predicted general low marsupial MHC class II variation. As pathogens are believed to be very powerful drivers of MHC diversity, I studied parasite burden in both host species to understand the reasons for the remarkable differences in MHC diversity. In both marsupial species specific MHC class II variants were associated to either high or low parasite load highlighting the importance of the marsupial MHC class II in pathogen defence. I developed two alternative scenarios with regard to MHC variation, parasite load, and parasite diversity. In the ‘evolutionary equilibrium’ scenario I assumed the species with low MHC diversity, M. incanus, to be under relaxed pathogenic selection and expected low parasite diversity. Alternatively, low MHC diversity could be the result of a recent loss of genetic variation by means of a genetic bottleneck event. Under this ‘unbalanced situation’ scenario, I assumed a high parasite burden in M. incanus due to a lack of resistance alleles. Parasitological results clearly reject the first scenario and point to the second scenario, as M. incanus is distinctly higher parasitised but parasite diversity is relatively equal compared to G. microtarsus. Hence, I suggest that the parasite load in M. incanus is rather the consequence than the cause for its low MHC diversity. MHC variation and its associations to parasite burden have been typically studied within single populations but MHC variation between populations was rarely taken into account. To gain scientific insight on this issue, I chose a common European rodent species. In the yellow necked mouse (Apodemus flavicollis), I investigated the effects of genetic diversity on parasite load not on the individual but on the population level. I included populations, which possess different levels of variation at the MHC as well as at neutrally evolving genetic markers (microsatellites). I was able to show that mouse populations with a high MHC allele diversity are better armed against high parasite burdens highlighting the significance of adaptive genetic diversity in the field of conservation genetics. An individual itself will not directly benefit from its population’s large MHC allele pool in terms of parasite resistance. But confronted with the multitude of pathogens present in the wild a population with a large MHC allele reservoir is more likely to possess individuals with resistance alleles. These results deepen our understanding of the complex causes and processes of evolutionary adaptations between hosts and pathogens.
‘Heterosis’ is a term used in genetics and breeding referring to hybrid vigour or the superiority of hybrids over their parents in terms of traits such as size, growth rate, biomass, fertility, yield, nutrient content, disease resistance or tolerance to abiotic and abiotic stress. Parental plants which are two different inbred (pure) lines that have desired traits are crossed to obtain hybrids. Maximum heterosis is observed in the first generation (F1) of crosses. Heterosis has been utilised in plant and animal breeding programs for at least 90 years: by the end of the 21st century, 65% of worldwide maize production was hybrid-based. Generally, it is believed that an understanding of the molecular basis of heterosis will allow the creation of new superior genotypes which could either be used directly as F1 hybrids or form the basis for the future breeding selection programmes. Two selected accessions of a research model plant Arabidopsis thaliana (thale cress) were crossed to obtain hybrids. These typically exhibited a 60-80% increase of biomass when compared to the average weight of both parents. This PhD project focused on investigating the role of selected regulatory genes given their potentially key involvement in heterosis. In the first part of the project, the most appropriate developmental stage for this heterosis study was determined by metabolite level measurements and growth observations in parents and hybrids. At the selected stage, around 60 candidate regulatory genes (i.e. differentially expressed in hybrids when compared to parents) were identified. Of these, the majority were transcription factors, genes that coordinate the expression of other genes. Subsequent expression analyses of the candidate genes in biomass-heterotic hybrids of other Arabidopsis accessions revealed a differential expression in a gene subset, highlighting their relevance for heterosis. Moreover, a fraction of the candidate regulatory genes were found within DNA regions closely linked to the genes that underlie the biomass or growth heterosis. Additional analyses to validate the role of selected candidate regulatory genes in heterosis appeared insufficient to establish their role in heterosis. This uncovered a need for using novel approaches as discussed in the thesis. Taken together, the work provided an insight into studies on the molecular mechanisms underlying heterosis. Although studies on heterosis date back to more than one hundred years, this project as many others revealed that more investigations will be needed to uncover this phenomenon.