Refine
Has Fulltext
- yes (105) (remove)
Year of publication
- 2012 (105) (remove)
Document Type
- Doctoral Thesis (105) (remove)
Language
- English (66)
- German (38)
- Multiple languages (1)
Keywords
- Korrosion (3)
- Nanopartikel (3)
- corrosion (3)
- Blickbewegungen (2)
- Computationale Modellierung (2)
- Evaluation (2)
- Fernerkundung (2)
- Fluoreszenzmikroskopie (2)
- Klimawandel (2)
- Lake sediments (2)
Institute
- Institut für Biochemie und Biologie (22)
- Institut für Chemie (19)
- Institut für Physik und Astronomie (18)
- Institut für Geowissenschaften (10)
- Extern (8)
- Institut für Informatik und Computational Science (6)
- Wirtschaftswissenschaften (5)
- Department Psychologie (4)
- Institut für Mathematik (4)
- Sozialwissenschaften (4)
Meiner nichtreduktionistischen Lesart Gadamers, derzufolge eine wechselseitige konstitutive Relation zwischen „Sprache“ und „Erfahrung“ besteht, ist es gestattet, den Vorwurf, die Sprachphilosophie Gadamers führe in den Relativismus, den man häufig gegenüber sprachphilosophischen Positionen erhebt, abzuweisen. Manchen Denkern zufolge haben die Philosophen der Postmoderne, zu denen auch Gadamer gezählt wurde, eine einfache Umkehrung der beiden Pole des modernen Verhältnisses „Sprache“ – „Erfahrung“ vollzogen: Während die Sprache in der Moderne in ihrer Bedingtheit zur Erfahrung und als bloßes Ausdrucksmittel verstanden wurde, wurde dieses Verhältnis in der neueren Philosophie nur umgekehrt, insofern die Philosophie in der Sprache das Fundament für die Erfahrung sehe, wonach die Erfahrung als ein Ausdruck der Sprache erscheine. Die vorliegende Arbeit setzt sich mit diesem Relativismusvorwurf auseinander und beabsichtigt, eine wechselseitige Abhängigkeit zwischen Sprache und Erfahrung ausgehend von Hans-Georg Gadamers Werk zu entwickeln. Um das zu erreichen, wurden zunächst eine doppelte negative-positive Erfahrungsstruktur und dann einige phänomenologische und transzendentale Merkmale der Erfahrung auf dem historischen Hintergrund für Gadamers Erfahrungsbegriff herausgearbeitet. Somit machte sich die konstitutive Sprachlichkeit der Erfahrung erkennbar. In einer Auseinandersetzung mit dem Sprachbegriff auf der anderen Seite wurde sein dialogischer und welterschließender Charakter veranschaulicht, so dass auch seine Angewiesenheit auf die Welterfahrung offenkundig wurde.
Diese Arbeit befasst sich mit der Synthese und Charakterisierung von organolöslichen Thiophen und Benzodithiophen basierten Materialien und ihrer Anwendung als aktive lochleitende Halbleiterschichten in Feldeffekttransistoren. Im ersten Teil der Arbeit wird durch eine gezielte Modifikation des Thiophengrundgerüstes eine neue Comonomer-Einheit für die Synthese von Thiophen basierten Copolymeren erfolgreich dargestellt. Die hydrophoben Hexylgruppen in der 3-Position des Thiophens werden teilweise durch hydrophile 3,6-Dioxaheptylgruppen ersetzt. Über die Grignard-Metathese nach McCullough werden statistische Copolymere mit unterschiedlichen molaren Anteilen vom hydrophoben Hexyl- und hydrophilem 3,6-Dioxaheptylgruppen 1:1 (P-1), 1:2 (P-2) und 2:1 (P-3) erfolgreich hergestellt. Auch die Synthese eines definierten Blockcopolymers BP-1 durch sequentielle Addition der Comonomere wird realisiert. Optische und elektrochemische Eigenschaften der neuartigen Copolymere sind vergleichbar mit P3HT. Mit allen Copolymeren wird ein charakteristisches Transistorverhalten in einem Top-Gate/Bottom-Kontakt-Aufbau erhalten. Dabei werden mit P-1 als die aktive Halbleiterschicht im Bauteil, PMMA als Dielektrikum und Silber als Gate-Elektrode Mobilitäten von bis zu 10-2 cm2/Vs erzielt. Als Folge der optimierten Grenzfläche zwischen Dielektrikum und Halbleiter wird eine Verbesserung der Luftstabilität der Transistoren über mehrere Monate festgestellt. Im zweiten Teil der Arbeit werden Benzodithiophen basierte organische Materialien hergestellt. Für die Synthese der neuartigen Benzodithiophen-Derivate wird die Schlüsselverbindung TIPS-BDT in guter Ausbeute dargestellt. Die Difunktionalisierung von TIPS-BDT in den 2,6-Positionen über eine elektrophile Substitution liefert die gewünschten Dibrom- und Distannylmonomere. Zunächst werden über die Stille-Reaktion alternierende Copolymere mit alkylierten Fluoren- und Chinoxalin-Einheiten realisiert. Alle Copolymere zeichnen sich durch eine gute Löslichkeit in gängigen organischen Lösungsmitteln, hohe thermische Stabilität und durch gute Filmbildungseigenschaften aus. Des Weiteren sind alle Copolymere mit HOMO Lagen höher als -6.3 eV, verglichen mit den Thiophen basierten Copolymeren (P-1 bis P-3), sehr oxidationsstabil. Diese Copolymere zeigen amorphes Verhalten in den Halbleiterschichten in OFETs auf und es werden Mobilitäten bis zu 10-4 cm2/Vs erreicht. Eine Abhängigkeit der Bauteil-Leistung von dem Zinngehalt-Rest im Polymer wird nachgewiesen. Ein Zinngehalt von über 0.6 % kann enormen Einfluss auf die Mobilität ausüben, da die funktionellen SnMe3-Gruppen als Fallenzustände wirken können. Alternativ wird das alternierende TIPS-BDT/Fluoren-Copolymer P-5-Stille nach der Suzuki-Methode polymerisiert. Mit P-5-Suzuki als die aktive organische Halbleiterschicht im OFET wird die höchste Mobilität von 10-2 cm2/Vs erzielt. Diese Mobilität ist somit um zwei Größenordnungen höher als bei P-5-Stille, da die Fallenzustände in diesem Fall minimiert werden und folglich der Ladungstransport verbessert wird. Sowohl das Homopolymer P-12 als auch das Copolymer mit dem aromatischen Akzeptor Benzothiadiazol P-9 führen zu schwerlöslichen Polymeren. Aus diesem Grund werden einerseits Terpolymere aus TIPS-BDT/Fluoren/BTD-Einheiten P-10 und P-11 aufgebaut und andererseits wird versucht die TIPS-BDT-Einheit in die Seitenkette des Styrols einzubringen. Mit der Einführung von BTD in die Hauptpolymerkette werden insbesondere die Absorptions- und die elektrochemischen Eigenschaften beeinflusst. Im Vergleich zu dem TIPS-BDT/Fluoren-Copolymer reicht die Absorption bis in den sichtbaren Bereich und die LUMO Lage wird zu niederen Werten verschoben. Eine Verbesserung der Leistung in den Bauteilen wird jedoch nicht festgestellt. Die erfolgreiche erstmalige Synthese von TIPS-BDT als Seitenkettenpolymer an Styrol P-13 führt zu einem löslichen und amorphen Polymer mit vergleichbaren Mobilitäten von Styrol basierten Polymeren (µ = 10-5 cm2/Vs) im OFET. Ein weiteres Ziel dieser Arbeit ist die Synthese von niedermolekularen organolöslichen Benzodithiophen-Derivaten. Über Suzuki- und Stille-Reaktionen ist es erstmals möglich, verschiedenartige Aromaten über eine σ-Bindung an TIPS-BDT in den 2,6-Positionen zu knüpfen. Die UV/VIS-Untersuchungen zeigen, dass die Absorption durch die Verlängerung der π-Konjugationslänge zu höheren Wellenlängen verschoben wird. Darüber hinaus ist es möglich, thermisch vernetzbare Gruppen wie Allyloxy in das Molekülgerüst einzubauen. Das Einführen von F-Atomen in das Molekülgerüst resultiert in einer verstärkten Packungsordnung im Fluorbenzen funktionalisiertem TIPS-BDT (SM-4) im Festkörper mit sehr guten elektronischen Eigenschaften im OFET, wobei Mobilitäten bis zu 0.09 cm2/Vs erreicht werden.
In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein.
Neben der Frage nach der leistungssteigernden Wirkung von sogenannten "Ich-kann"-Checklisten auf die Metakognitionsstrategien der Schülerinnen und Schüler, geht die Arbeit auch den Fragen nach, welche Schülerinnen und Schüler "Ich-kann"-Checklisten nutzen, in welcher Form und unter welchen Kontextmerkmalen sie am wirksamsten sind. Dabei handelt es sich um Listen mit festgelegten, fachlichen und überfachlichen Kompetenzen einer bzw. mehrerer Unterrichtseinheiten, die in Form von „Ich-kann“-Formulierungen für Schüler geschrieben sind und die Aufforderung einer Selbst- und Fremdeinschätzung beinhalten. Blickt man in die Veröffentlichungen der letzten Jahre zu diesem Thema und in die schulische Praxis, so ist eine deutliche Hinwendung zur Entwicklung und Arbeit mit „Ich-kann“-Checklisten und Kompetenzrastern zu erkennen. Umso erstaunlicher ist es, dass diesbezüglich so gut wie keine empirischen Untersuchungen vorliegen (vgl. Bastian & Merziger, 2007; Merziger, 2007). Basierend auf einer quantitativen Erhebung von 197 Gymnasialschülerinnen und -schülern in der 7. Jahrgangsstufe im Fach Deutsch wurde über einen Zeitraum von zwei Jahren diesen übergeordneten Fragen nachgegangen. Die Ergebnisse lassen die Aussagen zu, dass "Ich-kann"-Checklisten insbesondere für Jungen ein wirksames pädagogisches Instrument der Selbstregulation darstellen. So fördert die Arbeit mit "Ich-kann"-Checklisten nicht nur die Steuerung eigener Lernprozesse, sondern auch die Anstrengungsbereitschaft der Schülerinnen und Schüler, mehr für das Fach tun zu wollen. Eine während der Intervention erfolgte Selbsteinschätzung über den Leistungsstand mittels der "Ich-kann"-Checklisten fördert dabei den freiwilligen außerunterrichtlichen Gebrauch.
Bad governance causes economic, social, developmental and environmental problems in many developing countries. Developing countries have adopted a number of reforms that have assisted in achieving good governance. The success of governance reform depends on the starting point of each country – what institutional arrangements exist at the out-set and who the people implementing reforms within the existing institutional framework are. This dissertation focuses on how formal institutions (laws and regulations) and informal institutions (culture, habit and conception) impact on good governance. Three characteristics central to good governance - transparency, participation and accountability are studied in the research.
A number of key findings were: Good governance in Hanoi and Berlin represent the two extremes of the scale, while governance in Berlin is almost at the top of the scale, governance in Hanoi is at the bottom. Good governance in Hanoi is still far from achieved. In Berlin, information about public policies, administrative services and public finance is available, reliable and understandable. People do not encounter any problems accessing public information. In Hanoi, however, public information is not easy to access. There are big differences between Hanoi and Berlin in the three forms of participation. While voting in Hanoi to elect local deputies is formal and forced, elections in Berlin are fair and free. The candidates in local elections in Berlin come from different parties, whereas the candidacy of local deputies in Hanoi is thoroughly controlled by the Fatherland Front. Even though the turnout of voters in local deputy elections is close to 90 percent in Hanoi, the legitimacy of both the elections and the process of representation is non-existent because the local deputy candidates are decided by the Communist Party.
The involvement of people in solving local problems is encouraged by the government in Berlin. The different initiatives include citizenry budget, citizen activity, citizen initiatives, etc. Individual citizens are free to participate either individually or through an association.
Lacking transparency and participation, the quality of public service in Hanoi is poor. Citizens seldom get their services on time as required by the regulations. Citizens who want to receive public services can bribe officials directly, use the power of relationships, or pay a third person – the mediator ("Cò" - in Vietnamese).
In contrast, public service delivery in Berlin follows the customer-orientated principle. The quality of service is high in relation to time and cost. Paying speed money, bribery and using relationships to gain preferential public service do not exist in Berlin.
Using the examples of Berlin and Hanoi, it is clear to see how transparency, participation and accountability are interconnected and influence each other. Without a free and fair election as well as participation of non-governmental organisations, civil organisations, and the media in political decision-making and public actions, it is hard to hold the Hanoi local government accountable.
The key differences in formal institutions (regulative and cognitive) between Berlin and Hanoi reflect the three main principles: rule of law vs. rule by law, pluralism vs. monopoly Party in politics and social market economy vs. market economy with socialist orientation.
In Berlin the logic of appropriateness and codes of conduct are respect for laws, respect of individual freedom and ideas and awareness of community development. People in Berlin take for granted that public services are delivered to them fairly. Ideas such as using money or relationships to shorten public administrative procedures do not exist in the mind of either public officials or citizens.
In Hanoi, under a weak formal framework of good governance, new values and norms (prosperity, achievement) generated in the economic transition interact with the habits of the centrally-planned economy (lying, dependence, passivity) and traditional values (hierarchy, harmony, family, collectivism) influence behaviours of those involved.
In Hanoi “doing the right thing” such as compliance with law doesn’t become “the way it is”.
The unintended consequence of the deliberate reform actions of the Party is the prevalence of corruption. The socialist orientation seems not to have been achieved as the gap between the rich and the poor has widened.
Good governance is not achievable if citizens and officials are concerned only with their self-interest. State and society depend on each other. Theoretically to achieve good governance in Hanoi, institutions (formal and informal) able to create good citizens, officials and deputies should be generated. Good citizens are good by habit rather than by nature.
The rule of law principle is necessary for the professional performance of local administrations and People’s Councils. When the rule of law is applied consistently, the room for informal institutions to function will be reduced.
Promoting good governance in Hanoi is dependent on the need and desire to change the government and people themselves. Good governance in Berlin can be seen to be the result of the efforts of the local government and citizens after a long period of development and continuous adjustment.
Institutional transformation is always a long and complicated process because the change in formal regulations as well as in the way they are implemented may meet strong resistance from the established practice. This study has attempted to point out the weaknesses of the institutions of Hanoi and has identified factors affecting future development towards good governance. But it is not easy to determine how long it will take to change the institutional setting of Hanoi in order to achieve good governance.
Üblicherweise vermeiden deutsche Parteien Kampfkandidaturen um den Vorsitz. Dennoch kam es auf dem Mannheimer SPD-Parteitag 1995 zu einer unerwarteten offenen Konkurrenz um das Spitzenamt. Das unbeabsichtigte Scheitern der Inszenierung der „Geschlossenheit“ der Partei führte zum Ausbruch der bis dahin unterdrückten Kämpfe um den Parteivorsitz. Der Mannheimer Parteitag steht exemplarisch für den Zusammenhang zwischen Inszenierung, Disziplin und den informellen Regeln innerparteilicher Machtkonstruktion. Am Beispiel dieses Parteitages zeigt die vorliegende Arbeit, wie umstrittenen Parteivorsitzenden sich gegen Widerstände im Amt behaupten können bzw. woran diese Strategie scheitern kann. Aus figurationstheoretischer Perspektive wird die Inszenierung als Notwendigkeit medienvermittelter Parteienkonkurrenz um Wählerstimmen gefasst. Inszenierung erfordert Selbstdisziplin und das koordinierte Handeln der Parteimitglieder. Innerparteilich wird so wechselseitige Abhängigkeit erzeugt. Diese wird gesteigert durch die Medien-Konzentration auf wenige Spitzenpolitiker. Die Mehrheit der Mandatsträger und Funktionäre ist angewiesen auf das medienwirksame Auftreten der Führung. Für den Medienerfolg braucht die Führung ihrerseits die Unterstützung der Mitglieder. Diese wechselseitige Abhängigkeit erzeugt sowohl typische Relevanzen als auch Möglichkeiten, die jeweils andere Interessengruppe unter Zugzwang zu setzen. Imageprobleme des Vorsitzenden sind als verletzte Erwartungen Anlass für innerparteiliche Machtkämpfe, in denen die Parteiführung insbesondere die Inszenierung der „Geschlossenheit“ nutzen kann, um offene Personaldiskussionen zu verhindern. Da Handlungsoptionen und -grenzen durch das Handeln der Akteure immer wieder neu geschaffen werden, besteht stets das Risiko des Scheiterns innerparteilicher Disziplinierung. Mit dem Nachvollzug von Disziplinierung und den Gründen ihrer Kontingenz versteht sich die vorliegende Arbeit als Beitrag zu einer Theorie informeller Machtregeln in Organisationen mit schwach ausgeprägten Herrschaftsstrukturen. Im ersten Teil der Arbeit wird der Zusammenhang zwischen Inszenierung und Macht durch die Konzepte Theatralität und Figuration entwickelt. Im zweiten Teil werden typische Konstellationen der gegenwärtigen parlamentarischen Demokratie auf typische beziehungsvermittelte Situationsdeutungen, Handlungsmöglichkeiten und -grenzen untersucht. Im dritten Teil wird der kontingente Prozess des innerparteilichen Machtkampfes am Beispiel des Mannheimer Parteitages 1995 nachvollzogen.
Die Bittergeschmacksrezeptoren stellen in der Superfamilie der G-Protein-gekoppelten Rezeptoren eine besondere Gruppe dar. Im Menschen können die 25 Rezeptoren eine große Anzahl unterschiedlichster Bittergeschmacksstoffe detektieren. Diese Substanzen können sowohl schädlich, wie etwa Strychnin, als auch der Gesundheit förderliche Arzneistoffe, wie etwa Chloramphenicol sein. Unter den Bittergeschmacksrezeptoren des Menschen gibt es eine Gruppe von drei Rezeptoren, die besonders viele Bitterstoffe detektieren können. Einer von ihnen ist der Rezeptor hTAS2R10. In dieser Arbeit konnte sowohl experimentell als auch durch computergestützte Modellierung gezeigt werden, dass der hTAS2R10 nur eine Bindungstasche besitzt. Das stimmt mit den bisher ausführlich experimentell und in silico untersuchten Rezeptoren hTAS2R1, -R16, -R38 und -R46 überein. Die für die Agonisteninteraktionen nachweislich wichtigen Transmembrandomänen sind in den bisher untersuchten Bittergeschmacksrezeptoren, wie auch im hTAS2R10, die Transmembrandomänen 3, 5, 6 und 7. Die Untersuchungen zeigten, dass die Bindungstasche des hTAS2R10 in der oberen Hälfte des zum extrazellulären Raum gerichteten Bereichs lokalisiert ist. Insbesondere konnte für die untersuchten Agonisten Strychnin, Parthenolid und Denatoniumbenzoat gezeigt werden, dass die Seitenketten der Aminosäuren in Position 3.29 und 5.40 ausgeprägte agonistenselektive Wechselwirkungen eingehen. Weitere Untersuchungen haben ergeben, dass das weitgefächerte Agonistenspektrum des hTAS2R10 zu Lasten der Sensitivität für einzelne Bitterstoffe geht. Der Vergleich wichtiger Positionen im hTAS2R10, hTAS2R46 und mTas2r105 hat deutlich gemacht, dass sich die Bindungsmodi zwischen diesen Rezeptoren unterscheiden. Dies deutet auf eine getrennte evolutionäre Entwicklung der Bindungseigenschaften dieser Rezeptoren hin. Gleichfalls zeigten die Untersuchungen, dass einige Positionen wie z.B. 7.39 die Funktion aller untersuchten Bittergeschmacksrezeptoren prägen, sich jedoch die genaue Bedeutung im jeweiligen Rezeptor unterscheiden kann. Einzelne dieser Positionen konnten auch bei der Agonisteninteraktion des Rhodopsins und des β2-adrenergen Rezeptors beobachtet werden. Die Ergebnisse dieser Arbeit helfen dabei die Wechselwirkungen zwischen Bitterstoffen und den Bittergeschmacksrezeptoren zu verstehen und geben erste Einblicke in die Entwicklung der Rezeptoren in Hinblick auf ihren Funktionsmechanismus. Diese Erkenntnisse können genutzt werden, um Inhibitoren zu entwickeln, die sowohl ein wichtiges Werkzeug in der Rezeptoranalytik wären, als auch dazu genutzt werden könnten, den unerwünschten bitteren Geschmack von Medikamenten oder gesundheitsfördernden sekundären Pflanzenstoffen zu mindern. Damit könnte ein Beitrag zur Gesundheit der Menschen geleistet werden.
In many applications one is faced with the problem of inferring some functional relation between input and output variables from given data. Consider, for instance, the task of email spam filtering where one seeks to find a model which automatically assigns new, previously unseen emails to class spam or non-spam. Building such a predictive model based on observed training inputs (e.g., emails) with corresponding outputs (e.g., spam labels) is a major goal of machine learning. Many learning methods assume that these training data are governed by the same distribution as the test data which the predictive model will be exposed to at application time. That assumption is violated when the test data are generated in response to the presence of a predictive model. This becomes apparent, for instance, in the above example of email spam filtering. Here, email service providers employ spam filters and spam senders engineer campaign templates such as to achieve a high rate of successful deliveries despite any filters. Most of the existing work casts such situations as learning robust models which are unsusceptible against small changes of the data generation process. The models are constructed under the worst-case assumption that these changes are performed such to produce the highest possible adverse effect on the performance of the predictive model. However, this approach is not capable to realistically model the true dependency between the model-building process and the process of generating future data. We therefore establish the concept of prediction games: We model the interaction between a learner, who builds the predictive model, and a data generator, who controls the process of data generation, as an one-shot game. The game-theoretic framework enables us to explicitly model the players' interests, their possible actions, their level of knowledge about each other, and the order at which they decide for an action. We model the players' interests as minimizing their own cost function which both depend on both players' actions. The learner's action is to choose the model parameters and the data generator's action is to perturbate the training data which reflects the modification of the data generation process with respect to the past data. We extensively study three instances of prediction games which differ regarding the order in which the players decide for their action. We first assume that both player choose their actions simultaneously, that is, without the knowledge of their opponent's decision. We identify conditions under which this Nash prediction game has a meaningful solution, that is, a unique Nash equilibrium, and derive algorithms that find the equilibrial prediction model. As a second case, we consider a data generator who is potentially fully informed about the move of the learner. This setting establishes a Stackelberg competition. We derive a relaxed optimization criterion to determine the solution of this game and show that this Stackelberg prediction game generalizes existing prediction models. Finally, we study the setting where the learner observes the data generator's action, that is, the (unlabeled) test data, before building the predictive model. As the test data and the training data may be governed by differing probability distributions, this scenario reduces to learning under covariate shift. We derive a new integrated as well as a two-stage method to account for this data set shift. In case studies on email spam filtering we empirically explore properties of all derived models as well as several existing baseline methods. We show that spam filters resulting from the Nash prediction game as well as the Stackelberg prediction game in the majority of cases outperform other existing baseline methods.
Education in knowledge society is challenged with a lot of problems in particular the interaction between the teacher and learner in social networking software as a key factor affects the learners’ learning and satisfaction (Prammanee, 2005) where “to teach is to communicate, to communicate is to interact, to interact is to learn” (Hefzallah, 2004, p. 48). Analyzing the relation between teacher-learner interaction from a side and learning outcome and learners’ satisfaction from the other side, some basic problems regarding a new learning culture using social networking software are discussed. Most of the educational institutions pay a lot of attentions to the equipments and emerging Information and Communication Technologies (ICTs) in learning situations. They try to incorporate ICT into their institutions as teaching and learning environments. They do this because they expect that by doing so they will improve the outcome of the learning process. Despite this, the learning outcome as reported in most studies is very limited, because the expectations of self-directed learning are much higher than the reality. Findings from an empirical study (investigating the role of teacher-learner interaction through new digital media wiki in higher education and learning outcome and learner’s satisfaction) are presented recommendations about the necessity of pedagogical interactions in support of teaching and learning activities in wiki courses in order to improve the learning outcome. Conclusions show the necessity for significant changes in the approach of vocational teacher training programs of online teachers in order to meet the requirements of new digital media in coherence with a new learning culture. These changes have to address collaborative instead of individual learning and ICT wiki as a tool for knowledge construction instead of a tool for gathering information.
Cargo transport by molecular motors is ubiquitous in all eukaryotic cells and is typically driven cooperatively by several molecular motors, which may belong to one or several motor species like kinesin, dynein or myosin. These motor proteins transport cargos such as RNAs, protein complexes or organelles along filaments, from which they unbind after a finite run length. Understanding how these motors interact and how their movements are coordinated and regulated is a central and challenging problem in studies of intracellular transport. In this thesis, we describe a general theoretical framework for the analysis of such transport processes, which enables us to explain the behavior of intracellular cargos based on the transport properties of individual motors and their interactions. Motivated by recent in vitro experiments, we address two different modes of transport: unidirectional transport by two identical motors and cooperative transport by actively walking and passively diffusing motors. The case of cargo transport by two identical motors involves an elastic coupling between the motors that can reduce the motors’ velocity and/or the binding time to the filament. We show that this elastic coupling leads, in general, to four distinct transport regimes. In addition to a weak coupling regime, kinesin and dynein motors are found to exhibit a strong coupling and an enhanced unbinding regime, whereas myosin motors are predicted to attain a reduced velocity regime. All of these regimes, which we derive both by analytical calculations and by general time scale arguments, can be explored experimentally by varying the elastic coupling strength. In addition, using the time scale arguments, we explain why previous studies came to different conclusions about the effect and relevance of motor-motor interference. In this way, our theory provides a general and unifying framework for understanding the dynamical behavior of two elastically coupled molecular motors. The second mode of transport studied in this thesis is cargo transport by actively pulling and passively diffusing motors. Although these passive motors do not participate in active transport, they strongly enhance the overall cargo run length. When an active motor unbinds, the cargo is still tethered to the filament by the passive motors, giving the unbound motor the chance to rebind and continue its active walk. We develop a stochastic description for such cooperative behavior and explicitly derive the enhanced run length for a cargo transported by one actively pulling and one passively diffusing motor. We generalize our description to the case of several pulling and diffusing motors and find an exponential increase of the run length with the number of involved motors.
One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches.
Die Erkennung komplexer Kohlenhydrate durch das Tailspike Protein aus dem Bakteriophagen HK620
(2012)
Kohlenhydrate stellen aufgrund der strukturellen Vielfalt und ihrer oft exponierten Lage auf Zelloberflächen wichtige Erkennungsstrukturen dar. Die Wechselwirkungen von Proteinen mit diesen Kohlenhydraten vermitteln einen spezifischen Informationsaustausch. Protein-Kohlenhydrat-Interaktionen und ihre Triebkräfte sind bislang nur teilweise verstanden, da nur wenig strukturelle Daten von Proteinen im Komplex mit vorwiegend kleinen Kohlenhydraten erhältlich sind. Mit der vorliegenden Promotionsarbeit soll ein Beitrag zum Verständnis von Protein-Kohlenhydrat-Wechselwirkungen durch Analysen struktureller Thermodynamik geleistet werden, um zukünftig Vorhersagen mit zuverlässigen Algorithmen zu erlauben. Als Modellsystem zur Erkennung komplexer Kohlenhydrate diente dabei das Tailspike Protein (TSP) aus dem Bakteriophagen HK620. Dieser Phage erkennt spezifisch seinen E. coli-Wirt anhand der Oberflächenzucker, der sogenannten O-Antigene. Dabei binden die TSP des Phagen das O-Antigen des Lipopolysaccharids (LPS) und weisen zudem eine hydrolytische Aktivität gegenüber dem Polysaccharid (PS) auf. Anhand von isolierten Oligosacchariden des Antigens (Typ O18A1) wurde die Bindung an HK620TSP und verschiedener Varianten davon systematisch analysiert. Die Bindung der komplexen Kohlenhydrate durch HK620TSP zeichnet sich durch große Interaktionsflächen aus. Durch einzelne Aminosäureaustausche im aktiven Zentrum wurden Varianten generiert, die eine tausendfach erhöhte Affinität (KD ~ 100 nM) im Vergleich zum Wildtyp-Protein (KD ~ 130 μM) aufweisen. Dabei zeichnet sich das System dadurch aus, dass die Bindung bei Raumtemperatur nicht nur enthalpisch, sondern auch entropisch getrieben wird. Ursache für den günstigen Entropiebeitrag ist die große Anzahl an Wassermolekülen, die bei der Bindung des Hexasaccharids verdrängt werden. Röntgenstrukturanalysen zeigten für alle TSP-Komplexe außer für Variante D339N unabhängig von der Hexasaccharid-Affinität analoge Protein- und Kohlenhydrat-Konformationen. Dabei kann die Bindestelle in zwei Regionen unterteilt werden: Zum einen befindet sich am reduzierenden Ende eine hydrophobe Tasche mit geringen Beiträgen zur Affinitätsgenerierung. Der Zugang zu dieser Tasche kann ohne große Affinitätseinbuße durch einen einzelnen Aminosäureaustausch (D339N) blockiert werden. In der zweiten Region kann durch den Austausch eines Glutamats durch ein Glutamin (E372Q) eine Bindestelle für ein zusätzliches Wassermolekül generiert werden. Die Rotation einiger Aminosäuren bei Kohlenhydratbindung führt zur Desolvatisierung und zur Ausbildung von zusätzlichen Wasserstoffbrücken, wodurch ein starker Affinitätsgewinn erzielt wird. HK620TSP ist nicht nur spezifisch für das O18A1-Antigen, sondern erkennt zudem das um eine Glucose verkürzte Oligosaccharid des Typs O18A und hydrolysiert polymere Strukturen davon. Studien zur Bindung von O18A-Pentasaccharid zeigten, dass sich die Triebkräfte der Bindung im Vergleich zu dem zuvor beschriebenen O18A1-Hexasaccharid verschoben haben. Durch Fehlen der Seitenkettenglucose ist die Bindung im Vergleich zu dem O18A1-Hexasaccharid weniger stark entropisch getrieben (Δ(-TΔS) ~ 10 kJ/mol), während der Enthalpiebeitrag zu der Bindung günstiger ist (ΔΔH ~ -10 kJ/mol). Insgesamt gleichen sich diese Effekte aus, wodurch sehr ähnliche Affinitäten der TSP-Varianten zu O18A1-Hexasaccharid und O18A-Pentasaccharid gemessen wurden. Durch die Bindung der Glucose werden aus einer hydrophoben Tasche vier Wassermoleküle verdrängt, was entropisch stark begünstigt ist. Unter enthalpischen Aspekten ist dies ebenso wie einige Kontakte zwischen der Glucose und einigen Resten in der Tasche eher ungünstig. Die Bindung der Glucose in die hydrophobe Tasche an HK620TSP trägt somit nicht zur Affinitätsgenerierung bei und es bleibt zu vermuten, dass sich das O18A1-Antigen-bindende HK620TSP aus einem O18A-Antigen-bindenden TSP evolutionär herleitet. In dem dritten Teilprojekt der Dissertation wurde der Infektionsmechanismus des Phagen HK620 untersucht. Es konnte gezeigt werden, dass analog zu dem verwandten Phagen P22 die Ejektion der DNA aus HK620 allein durch das Lipopolysaccharid (LPS) des Wirts in vitro induziert werden kann. Die Morphologie und Kettenlänge des LPS sowie die Aktivität von HK620TSP gegenüber dem LPS erwiesen sich dabei als essentiell. So konnte die DNA-Ejektion in vitro auch durch LPS aus Bakterien der Serogruppe O18A induziert werden, welches ebenfalls von dem TSP des Phagen gebunden und hydrolysiert wird. Diese Ergebnisse betonen die Rolle von TSP für die Erkennung der LPS-Rezeptoren als wichtigen Schritt für die Infektion durch die Podoviren HK620 und P22.
Neben der Frequenz eines cues ist es dessen Zuverlässigkeit, die Kindern hilft, die an sie gerichtete Sprache zu segmentieren, Worteinheiten zu erkennen sowie diese syntaktisch zu kategorisieren. Im Deutschen weist die Subsilbe „Langvokal+Konsonant+/t/“ (z.B. in fehlt, wohnt) zuverlässig auf eine -t-flektierte Verbform hin. Die in kindgerichteter Sprache höher frequente Subsilbe „Kurzvokal+Konsonant+/t/“ (z.B. in Feld, Hemd, fällt, rund) gibt hingegen keinen derartig eindeutigen Hinweis. Es wurde der Frage nachgegangen, inwiefern diese unterschiedlichen Zuverlässigkeiten und Frequenzen der Subsilben auf die Nomen-, Verb- und Verbflexionsverarbeitung einwirken. Drei Altersgruppen wurden untersucht: achtzehn Monate alte Kinder, drei- bis fünfjährige sprachunauffällige und -auffällige Kinder sowie erwachsene Sprecher. Einflüsse der unterschiedlichen Zuverlässigkeiten und Frequenzen der ausgewählten Subsilben konnten für alle Probandengruppen gefunden werden. Die Subsilbe stellt damit eine linguistische Größe dar, die in der frühen Sprachwahrnehmung als cue dienen sowie die Sprachverarbeitung Erwachsener lenken kann und auch für die Sprachdiagnostik und -therapie sprachauffälliger Kinder berücksichtigt werden sollte.
The dissertation examines the use of performance information by public managers. “Use” is conceptualized as purposeful utilization in order to steer, learn, and improve public services. The main research question is: Why do public managers use performance information? To answer this question, I systematically review the existing literature, identify research gaps and introduce the approach of my dissertation. The first part deals with manager-related variables that might affect performance information use but which have thus far been disregarded. The second part models performance data use by applying a theory from social psychology which is based on the assumption that this management behavior is conscious and reasoned. The third part examines the extent to which explanations of performance information use vary if we include others sources of “unsystematic” feedback in our analysis. The empirical results are based on survey data from 2011. I surveyed middle managers from eight selected divisions of all German cities with county status (n=954). To analyze the data, I used factor analysis, multiple regression analysis, and structural equation modeling. My research resulted in four major findings: 1) The use of performance information can be modeled as a reasoned behavior which is determined by the attitude of the managers and of their immediate peers. 2) Regular users of performance data surprisingly are not generally inclined to analyze abstract data but rather prefer gathering information through personal interaction. 3) Managers who take on ownership of performance information at an early stage in the measurement process are also more likely to use this data when it is reported to them. 4) Performance reports are only one source of information among many. Public managers prefer verbal feedback from insiders and feedback from external stakeholders over systematic performance reports. The dissertation explains these findings using a deductive approach and discusses their implications for theory and practice.
This thesis contains several theoretical studies on optomechanical systems, i.e. physical devices where mechanical degrees of freedom are coupled with optical cavity modes. This optomechanical interaction, mediated by radiation pressure, can be exploited for cooling and controlling mechanical resonators in a quantum regime. The goal of this thesis is to propose several new ideas for preparing meso- scopic mechanical systems (of the order of 10^15 atoms) into highly non-classical states. In particular we have shown new methods for preparing optomechani-cal pure states, squeezed states and entangled states. At the same time, proce-dures for experimentally detecting these quantum effects have been proposed. In particular, a quantitative measure of non classicality has been defined in terms of the negativity of phase space quasi-distributions. An operational al- gorithm for experimentally estimating the non-classicality of quantum states has been proposed and successfully applied in a quantum optics experiment. The research has been performed with relatively advanced mathematical tools related to differential equations with periodic coefficients, classical and quantum Bochner’s theorems and semidefinite programming. Nevertheless the physics of the problems and the experimental feasibility of the results have been the main priorities.
Complex networks have been successfully employed to represent different levels of biological systems, ranging from gene regulation to protein-protein interactions and metabolism. Network-based research has mainly focused on identifying unifying structural properties, including small average path length, large clustering coefficient, heavy-tail degree distribution, and hierarchical organization, viewed as requirements for efficient and robust system architectures. Existing studies estimate the significance of network properties using a generic randomization scheme - a Markov-chain switching algorithm - which generates unrealistic reactions in metabolic networks, as it does not account for the physical principles underlying metabolism. Therefore, it is unclear whether the properties identified with this generic approach are related to the functions of metabolic networks. Within this doctoral thesis, I have developed an algorithm for mass-balanced randomization of metabolic networks, which runs in polynomial time and samples networks almost uniformly at random. The properties of biological systems result from two fundamental origins: ubiquitous physical principles and a complex history of evolutionary pressure. The latter determines the cellular functions and abilities required for an organism’s survival. Consequently, the functionally important properties of biological systems result from evolutionary pressure. By employing randomization under physical constraints, the salient structural properties, i.e., the smallworld property, degree distributions, and biosynthetic capabilities of six metabolic networks from all kingdoms of life are shown to be independent of physical constraints, and thus likely to be related to evolution and functional organization of metabolism. This stands in stark contrast to the results obtained from the commonly applied switching algorithm. In addition, a novel network property is devised to quantify the importance of reactions by simulating the impact of their knockout. The relevance of the identified reactions is verified by the findings of existing experimental studies demonstrating the severity of the respective knockouts. The results suggest that the novel property may be used to determine the reactions important for viability of organisms. Next, the algorithm is employed to analyze the dependence between mass balance and thermodynamic properties of Escherichia coli metabolism. The thermodynamic landscape in the vicinity of the metabolic network reveals two regimes of randomized networks: those with thermodynamically favorable reactions, similar to the original network, and those with less favorable reactions. The results suggest that there is an intrinsic dependency between thermodynamic favorability and evolutionary optimization. The method is further extended to optimizing metabolic pathways by introducing novel chemically feasibly reactions. The results suggest that, in three organisms of biotechnological importance, introduction of the identified reactions may allow for optimizing their growth. The approach is general and allows identifying chemical reactions which modulate the performance with respect to any given objective function, such as the production of valuable compounds or the targeted suppression of pathway activity. These theoretical developments can find applications in metabolic engineering or disease treatment. The developed randomization method proposes a novel approach to measuring the significance of biological network properties, and establishes a connection between large-scale approaches and biological function. The results may provide important insights into the functional principles of metabolic networks, and open up new possibilities for their engineering.
Since available phosphate (Pi) resources in soil are limited, symbiotic interactions between plant roots and arbuscular mycorrhizal (AM) fungi are a widespread strategy to improve plant phosphate nutrition. The repression of AM symbiosis by a high plant Pi-status indicates a link between Pi homeostasis signalling and AM symbiosis development. This assumption is supported by the systemic induction of several microRNA399 (miR399) primary transcripts in shoots and a simultaneous accumulation of mature miR399 in roots of mycorrhizal plants. However, the physiological role of this miR399 expression pattern is still elusive and offers the question whether other miRNAs are also involved in AM symbiosis. Therefore, a deep sequencing approach was applied to investigate miRNA-mediated posttranscriptional gene regulation in M. truncatula mycorrhizal roots. Degradome analysis revealed that 185 transcripts were cleaved by miRNAs, of which the majority encoded transcription factors and disease resistance genes, suggesting a tight control of transcriptional reprogramming and a downregulation of defence responses by several miRNAs in mycorrhizal roots. Interestingly, 45 of the miRNA-cleaved transcripts showed a significant differentially regulated between mycorrhizal and non-mycorrhizal roots. In addition, key components of the Pi homeostasis signalling pathway were analyzed concerning their expression during AM symbiosis development. MtPhr1 overexpression and time course expression data suggested a strong interrelation between the components of the PHR1-miR399-PHO2 signalling pathway and AM symbiosis, predominantly during later stages of symbiosis. In situ hybridizations confirmed accumulation of mature miR399 in the phloem and in arbuscule-containing cortex cells of mycorrhizal roots. Moreover, a novel target of the miR399 family, named as MtPt8, was identified by the above mentioned degradome analysis. MtPt8 encodes a Pi-transporter exclusively transcribed in mycorrhizal roots and its promoter activity was restricted to arbuscule-containing cells. At a low Pi-status, MtPt8 transcript abundance inversely correlated with a mature miR399 expression pattern. Increased MtPt8 transcript levels were accompanied by elevated symbiotic Pi-uptake efficiency, indicating its impact on balancing plant and fungal Pi-acquisition. In conclusion, this study provides evidence for a direct link of the regulatory mechanisms of plant Pi-homeostasis and AM symbiosis at a cell-specific level. The results of this study, especially the interaction of miR399 and MtPt8 provide a fundamental step for future studies of plant-microbe-interactions with regard to agricultural and ecological aspects.
In the course of this thesis gold nanoparticle/polyelectrolyte multilayer structures were prepared, characterized, and investigated according to their static and ultrafast optical properties. Using the dip-coating or spin-coating layer-by-layer deposition method, gold-nanoparticle layers were embedded in a polyelectrolyte environment with high structural perfection. Typical structures exhibit four repetition units, each consisting of one gold-particle layer and ten double layers of polyelectrolyte (cationic+anionic polyelectrolyte). The structures were characterized by X-ray reflectivity measurements, which reveal Bragg peaks up to the seventh order, evidencing the high stratication of the particle layers. In the same measurements pronounced Kiessig fringes were observed, which indicate a low global roughness of the samples. Atomic force microscopy (AFM) images veried this low roughness, which results from the high smoothing capabilities of polyelectrolyte layers. This smoothing effect facilitates the fabrication of stratified nanoparticle/polyelectrolyte multilayer structures, which were nicely illustrated in a transmission electron microscopy image. The samples' optical properties were investigated by static spectroscopic measurements in the visible and UV range. The measurements revealed a frequency shift of the reflectance and of the plasmon absorption band, depending on the thickness of the polyelectrolyte layers that cover a nanoparticle layer. When the covering layer becomes thicker than the particle interaction range, the absorption spectrum becomes independent of the polymer thickness. However, the reflectance spectrum continues shifting to lower frequencies (even for large thicknesses). The range of plasmon interaction was determined to be in the order of the particle diameter for 10 nm, 20 nm, and 150 nm particles. The transient broadband complex dielectric function of a multilayer structure was determined experimentally by ultrafast pump-probe spectroscopy. This was achieved by simultaneous measurements of the changes in the reflectance and transmittance of the excited sample over a broad spectral range. The changes in the real and imaginary parts of the dielectric function were directly deduced from the measured data by using a recursive formalism based on the Fresnel equations. This method can be applied to a broad range of nanoparticle systems where experimental data on the transient dielectric response are rare. This complete experimental approach serves as a test ground for modeling the dielectric function of a nanoparticle compound structure upon laser excitation.
Im Rahmen des ersten Teils der vorliegenden Doktorarbeit konnten zwei nicht-essentielle (rps15, rpl36) und fünf essentielle (rps3, rps16, rpl22, rpl23, rpl32) im Plastom von Nicotiana tabacum kodierte Proteine des plastidären Ribosoms bezüglich ihrer Essentialität charakterisiert werden. Diese Gene wurden durch gezielte Knockout-Experimente inaktiviert und die resultierenden Effekte untersucht. Die Ergebnisse lassen einen Rückschluss auf die Lokalisation der Gene der insgesamt sieben untersuchten ribosomalen Proteine zu, die im Plastom mehrerer parasitischer, Plastiden-besitzender Spezies nicht mehr nachweisbar sind. Im Fall von rps15 könnte tatsächlich ein Verlust des Genes stattgefunden haben, im Fall der restlichen Gene ist eher mit einem Transfer in den Nukleus zu rechnen (rpl36 ausgenommen). Dies würde bedeuten, dass die Geschwindigkeit der erfolgreichen Etablierung eines Gentransfers in vielen parasitischen Spezies gegenüber grünen Pflanzen stark erhöht ist. Alle in E. coli nicht-essentiellen Proteine mit Homologen in Plastiden (rps15, rpl33, rpl36) sind auch dort, trotz ~1,5 Milliarden Jahren getrennter Evolution, nicht essentiell. Dieses Ergebnis bestätigt den schon früher festgestellten hohen Konservierungsgrad der bakteriellen und plastidären Translationsmaschinerien. Die Phänotypen der KO-Pflanzen der nicht-essentiellen Gene (rps15, rpl36) weisen auf eine interessante Rolle von S15 während der Ribosomenassemblierung hin und im Fall von L36 auf eine wichtige funktionelle Rolle im Plastiden-Ribosomen sowie auf eine Involvierung der Plastidentranslation in der Generierung eines retrograden Signals, welches die Blattform zu beeinflussen im Stande ist. Des Weiteren konnte eine Verbindung der Translationsaktivität mit der Ausbildung von Seitentrieben hergestellt werden, die vermutlich auf veränderte Auxinsynthese im Chloroplast zurückzuführen ist. Aus dem Folgeprojekt, bei dem Doppel-KO-Pflanzen nicht-essentieller ribosomaler Proteine erzeugt wurden, lässt sich auf eine relativ große Plastizität der Architektur von Plastidenribosomen schließen. Im zweiten Teil der Arbeit konnte erfolgreich ein Hochdurchsatz-Screeningsystem zur semiquantitativen Analyse von 192 verschiedenen miRNAs aus Chlamydomonas reinhardtii etabliert werden. Es gelang durch die Untersuchung von 23 verschiedenen Wachstums- und Stressbedingungen sowie Entwicklungsstadien mehrere miRNAs zu identifizieren, die eine differenzielle Expression zeigen sowie unter allen untersuchten Bedingungen konstant bleibende miRNAs nachzuweisen. Dadurch konnten mehrere vielversprechende Kandidaten-miRNAs ausgemacht werden, die nun eingehender untersucht werden können.
Ziel der vorliegenden Arbeit war es, die Auswirkungen von Glucose- und Lipidtoxizität auf die Funktion der β-Zellen von Langerhans-Inseln in einem diabetesresistenten (B6.V-Lepob/ob, ob/ob) sowie diabetessuszeptiblen (New Zealand Obese, NZO) Mausmodell zu untersuchen. Es sollten molekulare Mechanismen identifiziert werden, die zum Untergang der β-Zellen in der NZO-Maus führen bzw. zum Schutz der β-Zellen der ob/ob-Maus beitragen. Zunächst wurde durch ein geeignetes diätetisches Regime in beiden Modellen durch kohlenhydratrestriktive Ernährung eine Adipositas(Lipidtoxizität) induziert und anschließend durch Fütterung einer kohlenhydrathaltigen Diät ein Zustand von Glucolipotoxizität erzeugt. Dieses Vorgehen erlaubte es, in der NZO-Maus in einem kurzen Zeitfenster eine Hyperglykämie sowie einen β-Zelluntergang durch Apoptose auszulösen. Im Vergleich dazu blieben ob/ob-Mäuse längerfristig normoglykämisch und wiesen keinen β-Zelluntergang auf. Die Ursache für den β-Zellverlust war die Inaktivierung des Insulin/IGF-1-Rezeptor-Signalwegs, wie durch Abnahme von phospho-AKT, phospho-FoxO1 sowie des β-zellspezifischen Transkriptionsfaktors PDX1 gezeigt wurde. Mit Ausnahme des Effekts einer Dephosphorylierung von FoxO1, konnten ob/ob-Mäuse diesen Signalweg aufrechterhalten und dadurch einen Verlust von β-Zellen abwenden. Die glucolipotoxischen Effekte wurden in vitro an isolierten Inseln beider Stämme und der β-Zelllinie MIN6 bestätigt und zeigten, dass ausschließlich die Kombination hoher Glucose und Palmitatkonzentrationen (Glucolipotoxizität) negative Auswirkungen auf die NZO-Inseln und MIN6-Zellen hatte, während ob/ob-Inseln davor geschützt blieben. Die Untersuchung isolierter Inseln ergab, dass beide Stämme unter glucolipotoxischen Bedingungen keine Steigerung der Insulinexpression aufweisen und sich bezüglich ihrer Glucose-stimulierten Insulinsekretion nicht unterscheiden. Mit Hilfe von Microarray- sowie immunhistologischen Untersuchungen wurde gezeigt, dass ausschließlich ob/ob-Mäuse nach Kohlenhydratfütterung eine kompensatorische transiente Induktion der β-Zellproliferation aufwiesen, die in einer nahezu Verdreifachung der Inselmasse nach 32 Tagen mündete. Die hier erzielten Ergebnisse lassen die Schlussfolgerung zu, dass der β-Zelluntergang der NZO-Maus auf eine Beeinträchtigung des Insulin/IGF-1-Rezeptor-Signalwegs sowie auf die Unfähigkeit zur β- Zellproliferation zurückgeführt werden kann. Umgekehrt ermöglichen der Erhalt des Insulin/IGF-1-Rezeptor-Signalwegs und die Induktion der β-Zellproliferation in der ob/ob-Maus den Schutz vor einer Hyperglykämie und einem Diabetes.
Theory of mRNA degradation
(2012)
One of the central themes of biology is to understand how individual cells achieve a high fidelity in gene expression. Each cell needs to ensure accurate protein levels for its proper functioning and its capability to proliferate. Therefore, complex regulatory mechanisms have evolved in order to render the expression of each gene dependent on the expression level of (all) other genes. Regulation can occur at different stages within the framework of the central dogma of molecular biology. One very effective and relatively direct mechanism concerns the regulation of the stability of mRNAs. All organisms have evolved diverse and powerful mechanisms to achieve this. In order to better comprehend the regulation in living cells, biochemists have studied specific degradation mechanisms in detail. In addition to that, modern high-throughput techniques allow to obtain quantitative data on a global scale by parallel analysis of the decay patterns of many different mRNAs from different genes. In previous studies, the interpretation of these mRNA decay experiments relied on a simple theoretical description based on an exponential decay. However, this does not account for the complexity of the responsible mechanisms and, as a consequence, the exponential decay is often not in agreement with the experimental decay patterns. We have developed an improved and more general theory of mRNA degradation which provides a general framework of mRNA expression and allows describing specific degradation mechanisms. We have made an attempt to provide detailed models for the regulation in different organisms. In the yeast S. cerevisiae, different degradation pathways are known to compete and furthermore most of them rely on the biochemical modification of mRNA molecules. In bacteria such as E. coli, degradation proceeds primarily endonucleolytically, i.e. it is governed by the initial cleavage within the coding region. In addition, it is often coupled to the level of maturity and the size of the polysome of an mRNA. Both for S. cerevisiae and E. coli, our descriptions lead to a considerable improvement of the interpretation of experimental data. The general outcome is that the degradation of mRNA must be described by an age-dependent degradation rate, which can be interpreted as a consequence of molecular aging of mRNAs. Within our theory, we find adequate ways to address this much debated topic from a theoretical perspective. The improvements of the understanding of mRNA degradation can be readily applied to further comprehend the mRNA expression under different internal or environmental conditions such as after the induction of transcription or stress application. Also, the role of mRNA decay can be assessed in the context of translation and protein synthesis. The ultimate goal in understanding gene regulation mediated by mRNA stability will be to identify the relevance and biological function of different mechanisms. Once more quantitative data will become available, our description allows to elaborate the role of each mechanism by devising a suitable model.
Climate is the principal driving force of hydrological extremes like floods and attributing generating mechanisms is an essential prerequisite for understanding past, present, and future flood variability. Successively enhanced radiative forcing under global warming enhances atmospheric water-holding capacity and is expected to increase the likelihood of strong floods. In addition, natural climate variability affects the frequency and magnitude of these events on annual to millennial time-scales. Particularly in the mid-latitudes of the Northern Hemisphere, correlations between meteorological variables and hydrological indices suggest significant effects of changing climate boundary conditions on floods. To date, however, understanding of flood responses to changing climate boundary conditions is limited due to the scarcity of hydrological data in space and time. Exploring paleoclimate archives like annually laminated (varved) lake sediments allows to fill this gap in knowledge offering precise dated time-series of flood variability for millennia. During river floods, detrital catchment material is eroded and transported in suspension by fluid turbulence into downstream lakes. In the water body the transport capacity of the inflowing turbidity current successively diminishes leading to the deposition of detrital layers on the lake floor. Intercalated into annual laminations these detrital layers can be dated down to seasonal resolution. Microfacies analyses and X-ray fluorescence scanning (µ-XRF) at 200 µm resolution were conducted on the varved Mid- to Late Holocene interval of two sediment profiles from pre-alpine Lake Ammersee (southern Germany) located in a proximal (AS10prox) and distal (AS10dist) position towards the main tributary River Ammer. To shed light on sediment distribution within the lake, particular emphasis was (1) the detection of intercalated detrital layers and their micro-sedimentological features, and (2) intra-basin correlation of these deposits. Detrital layers were dated down to the season by microscopic varve counting and determination of the microstratigraphic position within a varve. The resulting chronology is verified by accelerator mass spectrometry (AMS) 14C dating of 14 terrestrial plant macrofossils. Since ~5500 varve years before present (vyr BP), in total 1573 detrital layers were detected in either one or both of the investigated sediment profiles. Based on their microfacies, geochemistry, and proximal-distal deposition pattern, detrital layers were interpreted as River Ammer flood deposits. Calibration of the flood layer record using instrumental daily River Ammer runoff data from AD 1926 to 1999 proves the flood layer succession to represent a significant time-series of major River Ammer floods in spring and summer, the flood season in the Ammersee region. Flood layer frequency trends are in agreement with decadal variations of the East Atlantic-Western Russia (EA-WR) atmospheric pattern back to 200 yr BP (end of the used atmospheric data) and solar activity back to 5500 vyr BP. Enhanced flood frequency corresponds to the negative EA-WR phase and reduced solar activity. These common links point to a central role of varying large-scale atmospheric circulation over Europe for flood frequency in the Ammersee region and suggest that these atmospheric variations, in turn, are likely modified by solar variability during the past 5500 years. Furthermore, the flood layer record indicates three shifts in mean layer thickness and frequency of different manifestation in both sediment profiles at ~5500, ~2800, and ~500 vyr BP. Combining information from both sediment profiles enabled to interpret these shifts in terms of stepwise increases in mean flood intensity. Likely triggers of these shifts are gradual reduction of Northern Hemisphere orbital summer forcing and long-term solar activity minima. Hypothesized atmospheric response to this forcing is hemispheric cooling that enhances equator-to-pole temperature gradients and potential energy in the troposphere. This energy is transferred into stronger westerly cyclones, more extreme precipitation, and intensified floods at Lake Ammersee. Interpretation of flood layer frequency and thickness data in combination with reanalysis models and time-series analysis allowed to reconstruct the flood history and to decipher flood triggering climate mechanisms in the Ammersee region throughout the past 5500 years. Flood frequency and intensity are not stationary, but influenced by multi-causal climate forcing of large-scale atmospheric modes on time-scales from years to millennia. These results challenge future projections that propose an increase in floods when Earth warms based only on the assumption of an enhanced hydrological cycle.
The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert. This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution. We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains. Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs.
The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced.
A discrete analogue of the Witten Laplacian on the n-dimensional integer lattice is considered. After rescaling of the operator and the lattice size we analyze the tunnel effect between different wells, providing sharp asymptotics of the low-lying spectrum. Our proof, inspired by work of B. Helffer, M. Klein and F. Nier in continuous setting, is based on the construction of a discrete Witten complex and a semiclassical analysis of the corresponding discrete Witten Laplacian on 1-forms. The result can be reformulated in terms of metastable Markov processes on the lattice.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
Die Restenose stellt ein zentrales Problem der interventionellen Kardiologie dar und ist häufigste Komplikation nach perkutanen Angioplastieverfahren. Hauptursache dieser Wiederverengung des Gefäßes ist die Bildung einer Neointima durch die Proliferation transdifferenzierter vaskulärer glatter Muskelzellen und die Sekretion extrazellulärer Matrix. Die Entstehung reaktiver Sauerstoffspezies (ROS) und die Entzündungsreaktion nach der Gefäßverletzung werden als frühe, die Neointimabildung induzierende Prozesse diskutiert. Im Rahmen dieser Arbeit wurden mehrere Projekte bearbeitet, die Aufschluss über die während der Neointimabildung statt findenden Prozesse geben sollen. Mit Hilfe eines Verletzungsmodells der murinen Femoralarterie wurde der Einfluss der Entzündung und der ROS-Bildung auf die Neointimabildung in der Maus untersucht. Die Behandlung mit dem mitochondrialen Superoxiddismutase-Mimetikum MitoTEMPO verminderte die Bildung der Neointima besser, als die Behandlung mit dem globalen ROS-Fänger N-Acetylcystein. Die stärkste Hemmung der Neointimabildung wurde jedoch durch die Immunsuppression mit Rapamycin erreicht. Interferon-γ (INFγ) ist ein wichtiges Zytokin der Th1-Immunantwort, das in Folge der Gefäßverletzung freigesetzt wird und die proinflammatorischen Chemokine CXCL9 (MIG, Monokine Induced by INF), CXCL10 (IP-10, INF inducible Protein of 10 kDa) und CXCL11 (I-TAC, Interferon inducible T cell-Chemoattractant) induziert. CXCL9, CXCL10 und CXCL11 sind Liganden des CXC-Chemokinrezeptors 3 (CXCR3) und locken chemotaktisch CXCR3 positive Entzündungszellen zum Ort der Gefäßverletzung. Daher wurde die spezielle Bedeutung des Chemokins CXCL10 in der Restenose untersucht. Dazu wurden CXCL10-defiziente Mäuse dem Femoralisverletzungsmodell unterzogen und die Gefäße nach 14 Tagen morphometrisch und immunhistologisch untersucht. CXCL10-Defizienz führte in Mäusen zu einer verminderten Neointimabildung, die mit einer verringerten Inflammation, Apoptose und Proliferation im verletzten Gefäß korrelierte. Neben der Inflammation beeinflusst aber auch die Reendothelialisierung der verletzten Gefäßwand die Restenose. Interessanterweise war im Vergleich zu Wildtyp-Mäusen in den CXCL10-Knockout-Mäusen auch die Reendothelialisierung erheblich verbessert. Offensichtlich ist das CXCR3-Chemokinsystem also in völlig unterschiedliche biologische Prozesse involviert und beeinflusst nicht nur die Bildung der Neoimtima durch die Förderung der Entzündung, sondern auch die Unterdrückung der Reendothelialisierung der verletzten Gefäßwand. Tatsächlich wird der CXCR3 nicht nur auf Entzündungszellen, sondern auch auf Endothelzellen exprimiert. Zur separaten Untersuchung der Rolle des CXCR3 in der Inflammation und der Reendothelialisierung wurde im Rahmen dieser Arbeit damit begonnen konditionelle CXCR3-Knockout-Mäuse zu generieren, in denen der CXCR3 entweder in Entzündungszellen oder in Endothelzellen ausgeschaltet ist. Zum besseren Verständnis der molekularen Mechanismen, mit denen der CXCR3 seine Funktionen vermittelt, wurde zudem untersucht ob dieser mit anderen G-Protein-gekoppelten Rezeptoren (GPCR) interagiert. Die Analyse von Coimmunpräzipitaten deutet auf eine Homodimerisierung der beiden CXCR3 Splicevarianten CXCR3A und CXCR3B, sowie auf die Heterodimerbildung von CXCR3A und CXCR3B mit sich, sowie jeweils mit CCR2, CCR3, CCR5 und den Opioidrezeptoren MOR und KOR hin. Die getestete Methode des Fluoreszenz-Resonanz-Energietransfers (FRET) erwies sich jedoch als ungeeignet zur Untersuchung von CXCR3, da dieser in HEK293T-Zellen nicht korrekt transient exprimiert wurde. Insgesamt deuten die Ergebnisse dieser Arbeit darauf hin, dass das CXCR3-Chemokinsystem eine zentrale Rolle in unterschiedlichen, die Neointimabildung beeinflussenden Prozessen spielt. Damit könnten der CXCR3 und insbesondere das Chemokin CXCL10 interessante Zielmoleküle in der Entwicklung neuer verbesserter Therapien zur Verhinderung der Restenose darstellen.
This study follows the debate in comparative public administration research on the role of advisory arrangements in central governments. The aim of this study is to explain the mechanisms by which these actors gain their alleged role in government decision-making. Hence, it analyses advisory arrangements that are proactively involved in executive decision-making and may compete with the permanent bureaucracy by offering policy advice to political executives. The study argues that these advisory arrangements influence government policy-making by "institutional politics", i.e. by shaping the institutional underpinnings to govern or rather the "rules of the executive game" in order to strengthen their own position or that of their clients. The theoretical argument of this study follows the neo-institutionalist turn in organization theory and defines institutional politics as gradual institutionalization processes between institutions and organizational actors. It applies a broader definition of institutions as sets of regulative, normative and cognitive pillars. Following the "power-distributional approach" such gradual institutionalization processes are influenced by structure-oriented characteristics, i.e. the nature of the objects of institutional politics, in particular the freedom of interpretation in their application, as well as the distinct constraints of the institutional context. In addition, institutional politics are influenced by agency-oriented characteristics, i.e. the ambitions of actors to act as "would-be change agents". These two explanatory dimensions result in four ideal-typical mechanisms of institutional politics: layering, displacement, drift, and conversion, which correspond to four ideal-types of would-be change agents. The study examines the ambitions of advisory arrangements in institutional politics in an exploratory manner, the relevance of the institutional context is analyzed via expectation hypotheses on the effects of four institutional context features that are regarded as relevant in the scholarly debate: (1) the party composition of governments, (2) the structuring principles in cabinet, (3) the administrative tradition, and (4) the formal politicization of the ministerial bureaucracy. The study follows a "most similar systems design" and conducts qualitative case studies on the role of advisory arrangements at the center of German and British governments, i.e. the Prime Minister’s Office and the Ministry of Finance, for a longer period (1969/1970-2005). Three time periods are scrutinized per country; the British case studies examine the role of advisory arrangements at the Cabinet Office, the Prime Minister's Office, and the Ministry of Finance under Prime Ministers Heath (1970-74), Thatcher (1979-87) and Blair (1997-2005). The German case studies study the role of advisory arrangements at the Federal Chancellery and the Federal Ministry of Finance during the Brandt government (1969-74), the Kohl government (1982-1987) and the Schröder government (1998-2005). For the empirical analysis, the results of a document analysis and the findings of 75 semi-structured expert interviews have been triangulated. The comparative analysis reveals different patterns of institutional politics. The German advisory arrangements engaged initially in displacement but turned soon towards layering and drift, i.e. after an initial displacement of the pre-existing institutional underpinnings to govern they laid increasingly new elements onto existing ones and took the non-deliberative decision to neglect the adaption of existing rules of the executive game towards changing environmental demands. The British advisory arrangements were mostly involved in displacement and conversion, despite occasional layering, i.e. they displaced the pre-existing institutional underpinnings to govern with new rules of the executive game and transformed and realigned them, sometimes also layering new elements onto pre-existing ones. The structure- and agency-oriented characteristics explain these patterns of institutional politics. First, the study shows that the institutional context limits the institutional politics in Germany and facilitates the institutional politics in the UK. Second, the freedom of interpreting the application of institutional targets is relevant and could be observed via the different ambitions of advisory arrangements across countries and over time, confirming, third, that the interests of such would-be change agents are likewise important to understand the patterns of institutional politics. The study concludes that the role of advisory arrangements in government policy-making rests not only upon their policy-related, party-political or media-advisory role for political executives, but especially upon their activities in institutional politics, resulting in distinct institutional constraints on all actors in government policy-making – including their own role in these processes.
Der Einfluss unterschiedlich aggressiver Fusarium culmorum- und F. graminearum-Isolate auf die Schadbildausprägung bei Winterweizen sowie die Möglichkeit der Befallskontrolle mit Mykorrhiza Die durch Pilzarten der Gattung Fusarium spp. hervorgerufene partielle Taubährigkeit ist ein ernstes Problem im weltweiten Weizenanbau. Eine für die Schaderreger günstige feuchte Witterung zum Zeitpunkt der Weizenblüte in Kombination mit befallsfördernden agrotechnischen Maßnahmen löst immer wieder Epidemien aus. Hauptsächlich verursacht durch F. culmorum und F. graminearum führt eine Erkrankung zu Ertrags- und Qualitätseinbußen sowie zu einer Belastung des Ernteguts mit Mykotoxinen, die bereits in niedrigen Konzentrationen toxisch auf den tierischen und menschlichen Organismus wirken. Die am häufigsten vorkommenden Fusarium-Toxine in Weizen sind Deoxynivalenol (DON) und Zearalenon (ZEA). Isolate von F. graminearum- und F. culmorum können in ihrem DON- und ZEA-Bildungsvermögen und ihrem Potential, Nekrosen zu verursachen, stark variieren. In Laborversuchen (in vitro) wurden F. graminearum- und F. culmorum-Isolate hinsichtlich dieser Eigenschaften (hier als Aggressivität bezeichnet) charakterisiert und anschließend wurde im Feldversuch überprüft, ob die in vitro-ermittelte Aggressivität die Schadbildausprägung bei Weizenpflanzen beeinflusst. Nur im ersten Versuchsjahr, das durch hohe Niederschläge gekennzeichnet war, konnte ein Einfluss der Aggressivität und einer zusätzlichen Beregnung im Feldversuch nachgewiesen werden. Die als hoch-aggressiv eingestuften Fusarium-Isolate reduzierten unter dem Einfluss der Beregnung den Ertrag und das Tausendkorngewicht. Die Beregnung führte zu einer Erhöhung des Pilzwachstums und der DON- und ZEA-Produktion. Ein extrem trockener Sommer verhinderte die Infektion der Weizenpflanzen durch die beimpften Fusarium-Isolate und ein anschließendes Pilzwachstum in den Ähren im zweiten Versuchsjahr. Um den Befall von Weizenpflanzen mit Fusarium spp. vorzubeugen, stehen verschiedene pflanzenbauliche Maßnahmen zur Verfügung. Eine Möglichkeit stellen in diesem Zusammenhang die symbiotischen Mykorrhizapilze (MP) dar. Die Pilze sind in der Lage, Pflanzen zu stärken und antagonistisch auf pilzliche Schaderreger zu wirken. Um zu überprüfen, ob MP dazu beitragen könnten, den Befall von Weizenpflanzen mit Fusarium spp. niedrig zu halten, wurden Weizenpflanzen mit MP und Fusarium spp. beimpft und die Auswirkungen der Interaktionen auf die Weizenpflanzen in einem Klimakammer- und einem Feldversuch getestet. In der Klimakammer wurde eine Reduzierung des Fusarium-Befalls nachgewiesen. Die mykorrhizierten Weizenpflanzen wiesen außerdem höhere Photosyntheseraten, höhere Sprosstrockenmassen und mehr Ähren im Vergleich zu den nicht-mykorrhizierten und mit Fusarium-beimpften Weizenpflanzen auf. Insgesamt wurde durch die Mykorrhizierung der negative Einfluss von Fusarium spp. kompensiert. Im Freiland konnte kein Einfluss der MP auf Fusarium spp. beobachtet werden. Im ersten Versuchsjahr führte das Beimpfen der Weizenpflanzen mit MP zu höheren Wurzel- und Sprosstrockenmassen sowie zu höheren Tausendkorngewichten im Vergleich zu den mit Fusarium spp.-beimpften Weizenpflanzen. Im zweiten Versuchsjahr konnte dieses Ergebnis nicht wiederholt werden.
We investigate properties of quantum mechanical systems in the light of quantum information theory. We put an emphasize on systems with infinite-dimensional Hilbert spaces, so-called continuous-variable systems'', which are needed to describe quantum optics beyond the single photon regime and other Bosonic quantum systems. We present methods to obtain a description of such systems from a series of measurements in an efficient manner and demonstrate the performance in realistic situations by means of numerical simulations. We consider both unconditional quantum state tomography, which is applicable to arbitrary systems, and tomography of matrix product states. The latter allows for the tomography of many-body systems because the necessary number of measurements scales merely polynomially with the particle number, compared to an exponential scaling in the generic case. We also present a method to realize such a tomography scheme for a system of ultra-cold atoms in optical lattices. Furthermore, we discuss in detail the possibilities and limitations of using continuous-variable systems for measurement-based quantum computing. We will see that the distinction between Gaussian and non-Gaussian quantum states and measurements plays an crucial role. We also provide an algorithm to solve the large and interesting class of naturally occurring Hamiltonians, namely frustration free ones, efficiently and use this insight to obtain a simple approximation method for slightly frustrated systems. To achieve this goals, we make use of, among various other techniques, the well developed theory of matrix product states, tensor networks, semi-definite programming, and matrix analysis.
Tectonic and geological processes on Earth often result in structural anisotropy of the subsurface, which can be imaged by various geophysical methods. In order to achieve appropriate and realistic Earth models for interpretation, inversion algorithms have to allow for an anisotropic subsurface. Within the framework of this thesis, I analyzed a magnetotelluric (MT) data set taken from the Cape Fold Belt in South Africa. This data set exhibited strong indications for crustal anisotropy, e.g. MT phases out of the expected quadrant, which are beyond of fitting and interpreting with standard isotropic inversion algorithms. To overcome this obstacle, I have developed a two-dimensional inversion method for reconstructing anisotropic electrical conductivity distributions. The MT inverse problem represents in general a non-linear and ill-posed minimization problem with many degrees of freedom: In isotropic case, we have to assign an electrical conductivity value to each cell of a large grid to assimilate the Earth's subsurface, e.g. a grid with 100 x 50 cells results in 5000 unknown model parameters in an isotropic case; in contrast, we have the sixfold in an anisotropic scenario where the single value of electrical conductivity becomes a symmetric, real-valued tensor while the number of the data remains unchanged. In order to successfully invert for anisotropic conductivities and to overcome the non-uniqueness of the solution of the inverse problem it is necessary to use appropriate constraints on the class of allowed models. This becomes even more important as MT data is not equally sensitive to all anisotropic parameters. In this thesis, I have developed an algorithm through which the solution of the anisotropic inversion problem is calculated by minimization of a global penalty functional consisting of three entries: the data misfit, the model roughness constraint and the anisotropy constraint. For comparison, in an isotropic approach only the first two entries are minimized. The newly defined anisotropy term is measured by the sum of the square difference of the principal conductivity values of the model. The basic idea of this constraint is straightforward. If an isotropic model is already adequate to explain the data, there is no need to introduce electrical anisotropy at all. In order to ensure successful inversion, appropriate trade-off parameters, also known as regularization parameters, have to be chosen for the different model constraints. Synthetic tests show that using fixed trade-off parameters usually causes the inversion to end up by either a smooth model with large RMS error or a rough model with small RMS error. Using of a relaxation approach on the regularization parameters after each successful inversion iteration will result in smoother inversion model and a better convergence. This approach seems to be a sophisticated way for the selection of trade-off parameters. In general, the proposed inversion method is adequate for resolving the principal conductivities defined in horizontal plane. Once none of the principal directions of the anisotropic structure is coincided with the predefined strike direction, only the corresponding effective conductivities, which is the projection of the principal conductivities onto the model coordinate axes direction, can be resolved and the information about the rotation angles is lost. In the end the MT data from the Cape Fold Belt in South Africa has been analyzed. The MT data exhibits an area (> 10 km) where MT phases over 90 degrees occur. This part of data cannot be modeled by standard isotropic modeling procedures and hence can not be properly interpreted. The proposed inversion method, however, could not reproduce the anomalous large phases as desired because of losing the information about rotation angles. MT phases outside the first quadrant are usually obtained by different anisotropic anomalies with oblique anisotropy strike. In order to achieve this challenge, the algorithm needs further developments. However, forward modeling studies with the MT data have shown that surface highly conductive heterogeneity in combination with a mid-crustal electrically anisotropic zone are required to fit the data. According to known geological and tectonic information the mid-crustal zone is interpreted as a deep aquifer related to the fractured Table Mountain Group rocks in the Cape Fold Belt.
A point process is a mechanism, which realizes randomly locally finite point measures. One of the main results of this thesis is an existence theorem for a new class of point processes with a so called signed Levy pseudo measure L, which is an extension of the class of infinitely divisible point processes. The construction approach is a combination of the classical point process theory, as developed by Kerstan, Matthes and Mecke, with the method of cluster expansions from statistical mechanics. Here the starting point is a family of signed Radon measures, which defines on the one hand the Levy pseudo measure L, and on the other hand locally the point process. The relation between L and the process is the following: this point process solves the integral cluster equation determined by L. We show that the results from the classical theory of infinitely divisible point processes carry over in a natural way to the larger class of point processes with a signed Levy pseudo measure. In this way we obtain e.g. a criterium for simplicity and a characterization through the cluster equation, interpreted as an integration by parts formula, for such point processes. Our main result in chapter 3 is a representation theorem for the factorial moment measures of the above point processes. With its help we will identify the permanental respective determinantal point processes, which belong to the classes of Boson respective Fermion processes. As a by-product we obtain a representation of the (reduced) Palm kernels of infinitely divisible point processes. In chapter 4 we see how the existence theorem enables us to construct (infinitely extended) Gibbs, quantum-Bose and polymer processes. The so called polymer processes seem to be constructed here for the first time. In the last part of this thesis we prove that the family of cluster equations has certain stability properties with respect to the transformation of its solutions. At first this will be used to show how large the class of solutions of such equations is, and secondly to establish the cluster theorem of Kerstan, Matthes and Mecke in our setting. With its help we are able to enlarge the class of Polya processes to the so called branching Polya processes. The last sections of this work are about thinning and splitting of point processes. One main result is that the classes of Boson and Fermion processes remain closed under thinning. We use the results on thinning to identify a subclass of point processes with a signed Levy pseudo measure as doubly stochastic Poisson processes. We also pose the following question: Assume you observe a realization of a thinned point process. What is the distribution of deleted points? Surprisingly, the Papangelou kernel of the thinning, besides a constant factor, is given by the intensity measure of this conditional probability, called splitting kernel.
Structural dynamics of photoexcited nanolayered perovskites studied by ultrafast x-ray diffraction
(2012)
This publication-based thesis represents a contribution to the active research field of ultrafast structural dynamics in laser-excited nanostructures. The investigation of such dynamics is mandatory for the understanding of the various physical processes on microscopic scales in complex materials which have great potentials for advances in many technological applications. I theoretically and experimentally examine the coherent, incoherent and anharmonic lattice dynamics of epitaxial metal-insulator heterostructures on timescales ranging from femtoseconds up to nanoseconds. To infer information on the transient dynamics in the photoexcited crystal lattices experimental techniques using ultrashort optical and x-ray pulses are employed. The experimental setups include table-top sources as well as large-scale facilities such as synchrotron sources. At the core of my work lies the development of a linear-chain model to simulate and analyze the photoexcited atomic-scale dynamics. The calculated strain fields are then used to simulate the optical and x-ray response of the considered thin films and multilayers in order to relate the experimental signatures to particular structural processes. This way one obtains insight into the rich lattice dynamics exhibiting coherent transport of vibrational energy from local excitations via delocalized phonon modes of the samples. The complex deformations in tailored multilayers are identified to give rise to highly nonlinear x-ray diffraction responses due to transient interference effects. The understanding of such effects and the ability to precisely calculate those are exploited for the design of novel ultrafast x-ray optics. In particular, I present several Phonon Bragg Switch concepts to efficiently generate ultrashort x-ray pulses for time-resolved structural investigations. By extension of the numerical models to include incoherent phonon propagation and anharmonic lattice potentials I present a new view on the fundamental research topics of nanoscale thermal transport and anharmonic phonon-phonon interactions such as nonlinear sound propagation and phonon damping. The former issue is exemplified by the time-resolved heat conduction from thin SrRuO3 films into a SrTiO3 substrate which exhibits an unexpectedly slow heat conductivity. Furthermore, I discuss various experiments which can be well reproduced by the versatile numerical models and thus evidence strong lattice anharmonicities in the perovskite oxide SrTiO3. The thesis also presents several advances of experimental techniques such as time-resolved phonon spectroscopy with optical and x-ray photons as well as concepts for the implementation of x-ray diffraction setups at standard synchrotron beamlines with largely improved time-resolution for investigations of ultrafast structural processes. This work forms the basis for ongoing research topics in complex oxide materials including electronic correlations and phase transitions related to the elastic, magnetic and polarization degrees of freedom.
Entwicklung multi-stimuli sensitiver Materialien auf der Basis von flüssigkristallinen Elastomeren
(2012)
Aufgrund der zunehmenden technischen Ansprüche der Gesellschaft sind sich aktiv bewegende Polymere in den Mittelpunkt aktueller Forschung gerückt. Diese spielen bei Anwen-dungen im Bereich von künstlichen Muskeln und Implantaten für die minimal invasive Chirurgie eine wichtige Rolle. Vor allem Formänderungs- und Formgedächtnispolymere stehen dabei im wissenschaftlichen Fokus. Während die kontaktlose Deformation einer permanenten Form in eine temporäre metastabile Form, charakteristisch für Formände-rungspolymere ist, kann bei Formgedächtnis-Materialien die temporäre Form, aufgrund der Ausbildung reversibler, temporärer Netzpunkte, fixiert werden. Ein Polymermaterial, das eine Kombination beider Funktionen aufweist würde zu einem Material führen welches kontaktlos in eine temporäre Form deformiert und in dieser fixiert werden kann. Zusätzlich würde aufgrund der kontaktlosen Deformation die Reversibilität dieser Funktion gewähr-leistet sein. Ein solches Material ist bislang noch nicht beschrieben worden. In dieser Arbeit wird untersucht, ob durch die Kopplung zweier separat schaltbarer, be-kannter Funktionen eine neue schaltbare Funktion erzielt werden kann. Daher wurden multi-stimuli sensitive Materialien entwickelt die eine Kopplung des Formänderungs- und des Formgedächtniseffektes aufweisen. Dazu wurden zwei Konzepte entwickelt, die sich hinsichtlich der Reihenfolge der verwendeten Stimuli unterscheiden. Im ersten Konzept wurden flüssigkristalline Elastomere basie-rend auf Azobenzenderivaten aufgebaut und hinsichtlich der Kombination des licht-induzierten Formänderungseffektes mit dem thermisch-induzierten Formgedächtniseffekt untersucht. Diese orientierten Netzwerke weisen oberhalb der Glasübergangstemperatur (Tg) eine kontaktlose Verformung (Biegung) durch Bestrahlung mit UV-Licht des geeigneten Wellenlängenbereichs auf, wodurch eine temporäre Form erhalten wurde. Hierbei spielt der Vernetzungsgrad eine entscheidende Rolle bezüglich der Ausprägung dieser Biegung. Eine fixierte, temporäre Form konnte durch gleichzeitiges Abkühlen des Materials unterhalb von Tg während der Bestrahlung mit UV-Licht erhalten werden. Nach erneutem Aufheizen über Tg konnte die Originalform wiederhergestellt werden. Dieser Vorgang konnte reversibel durchgeführt werden. Damit wurde gezeigt, dass eine neue schaltbare Funktion erzielt wurde, die auf der Kopplung des lichtinduzierten Formänderungs- mit dem thermisch-induzierten Formgedächtniseffekt basiert. Die Abstimmung der einzelnen Funktion wird in diesem Konzept über die Morphologie des Systems gewährleistet. Diese neue Funktion ermöglicht eine kontaktlose Deformation des Materials in eine temporäre Form, welche fixiert werden kann. Im zweiten Konzept wurde eine Kopplung des thermisch induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffekt angestrebt. Um dies zu realisieren wurden nematisch, flüssigkristalline Hauptkettenelastomere (NMC-LCE) entwickelt, die eine nied-rige Übergangstemperatur der nematischen in die isotrope Phase (TNI), als auch einen aus-geprägten thermisch induzierten Formänderungseffekt aufweisen. Zusätzlich wurde eine photosensitive Schicht aufgebaut, die Cinnamylidenessigsäuregruppen in der Seitenkette eines Polysiloxanrückgrates aufweist. Die Reversibilität der photoinduzierten [2+2]-Cycloaddition konnte für dieses photosensitive Polymer beobachtet werden, wodurch die-ses Polymersystem in der Lage ist reversible temporäre Netzpunkte, aufgrund der Bestrah-lung mit UV-Licht, auszubilden. Die kovalente Anbindung der photosensitiven Schicht an die Oberfläche des flüssigkristallinen Kerns wurde erfolgreich durchgeführt, wodurch ein Multi-Komponenten-System aufgebaut wurde. Die Kombination des thermisch-induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffektes wurde anhand dieses Systems untersucht. Während die Einzelkomponenten die erforderliche Funktion zeigten, ist hier noch Arbeit in der Abstimmung beider Strukturen zu leisten. Insbesondere die Variation der Schichtdicken beider Komponenten steht im Fokus zukünftiger Arbeiten. In dieser Arbeit wurde durch die Kopplung von zwei separat schaltbaren, bekannten Funktionen eine neue schaltbare Funktion erzielt. Dies setzt voraus, dass die Einzelkomponenten hinsichtlich einer Funktion schaltbar sind und in einem Material integriert werden können. Des Weiteren müssen die beiden Funktionen mit unterschiedlichen Stimuli geschaltet werden. Ein wichtiger Schritt bei der Kopplung der Funktionen, ist die Abstimmung der beiden Komponenten. Dies kann über die Variation der Morphologie oder der Struktur erzielt werden. Anhand der Vielzahl der vorhandenen stimuli-sensitiven Materialien sind verschiedene Kopplungsmöglichkeiten vorhanden. Demnach wird erwartet, dass auf diesem Gebiet weitere neue Funktionen erzielt werden können.
Typische assoziative Verdicker für wässrige Systeme basieren auf linearen, doppelt hydrophob endmodifizierten Poly(ethylenglykolen) (PEGs). Diese Polymere aggregieren aufgrund ihrer Struktur in wässriger Lösung und bilden ein Netzwerk aus verbrückten Polymer-Mizellen. Dabei kann ein Polymer-Molekül maximal zwei Mizellen miteinander verbinden. Bisher ist unklar, wie die Anzahl der Endgruppen eines verzweigten, mehrfach hydrophob endmodifizierten hydrophilen Polymers die Struktur und Dynamik solcher Netzwerke beeinflusst. Die Synthese verzweigter Polymere auf PEG-Basis erfolgt mittels lebender ionischer Polymerisation und ist experimentell aufwändig. Das Einführen hydrophober Endgruppen erfordert zusätzliche Synthese-Schritte. In dieser Arbeit wurden hydrophile Sternpolymere mit hydrophoben Endgruppen in einem Schritt hergestellt. Dazu wurde die Technik der radikalischen Polymerisation unter Kettenübertragung durch reversible Addition und anschließende Fragmentierung (reversible addition-fragmentation chain transfer, RAFT) genutzt. Die Synthese der Sternpolymere erfolgte von einem multifunktionalen Kern, der die R-Gruppe der RAFT-Kettenüberträger (chain transfer agents, CTAs) bildete. Die dazu benötigten CTAs wurden so konzipiert, dass mit ihrer Hilfe sowohl die Anzahl der Arme des Sternpolymers (von 2 bis 4), als auch die Länge der hydrophoben Endgruppe (C4, C12, C18) variiert werden konnte. Der große Vorteil der RAFT-Polymerisation ist, dass sie viele polare Monomere für die Synthese der hydrophilen Arme des Sternpolymers toleriert. In dieser Arbeit wurden als Modell-Monomere Oligo(ethylenglykol)methylether-acrylat (OEGA) und N,N-Dimethylacrylamid (DMA) eingesetzt. Beide Monomere bilden nicht-ionische hydrophile Polymere. Poly(OEGA) ist ein Kammpolymer, das auf PEG basiert. Poly(DMA) besitzt dagegen eine deutlich kompaktere Struktur. Die erhaltenen amphiphilen Sternpolymere wurden umfassend molekular charakterisiert. Die Molmassen wurden mit verschiedenen GPC-Systemen bestimmt und der Grad der Endgruppenfunktionalisierung wurde mittels UV/Vis- und 1H-NMR-Spektroskopie überprüft. Die Polymerisation von OEGA zeigt mit den CTAs einige Charakteristika der Polymerisation mit reversibler Deaktivierung (RDRP, auch „kontrollierte radikalische Polymerisation“), wird aber durch Kettenübertragung zum Monomer bzw. Polymer gestört. Diese Nebenreaktion ist auf die Struktur des Monomers als Oligoether zurückzuführen. Bei allen untersuchten Polymerisationen von DMA mit den multifunktionalen CTAs steigt die Molmasse linear mit dem Umsatz. Die erhaltenen Polymere zeigen durchweg monomodale und enge Molmassenverteilungen (PDI ≤ 1,2). Die Molmassen lassen sich in einem weiten Bereich von 25 kg/mol bis 150 kg/mol einstellen und die Endgruppen der Polymere bleiben zu 90 % erhalten. Während die Polymerisation von DMA sowohl mit den di- als auch den trifunktionalen CTAs innerhalb von 3 h zu quantitativen Umsätzen verläuft, wird der quantitative Umsatz des Monomers bei der Polymerisation mit tetrafunktionalen CTAs erst nach 4 h erreicht. Diese Verzögerung ist auf eine Retardierung in der Anfangsphase der Polymerisation zurückzuführen, die sich aus der besonderen Struktur der tetrafunktionalen CTAs erklärt. Auf dem System zur Polymerisation von DMA aufbauend ließen sich Gradienten-Block-Copolymere in Eintopfreaktionen herstellen. Dazu wurde nach Erreichen des quantitativen Umsatzes von DMA ein zweites Monomer zur Reaktionsmischung gegeben. Mit Ethylacrylat (EtA) wurden so lineare amphiphile symmetrische Triblock-Copolymere erhalten. Dabei wurde die Länge des hydrophoben Blocks durch unterschiedliche Mengen an EtA variiert. Mit N,N-Diethylacrylamid (DEA) wurden lineare symmetrische Triblock-Copolymere sowie 3-Arm Stern-Diblock-Copolymere hergestellt, die über einen thermisch schaltbaren zweiten Block verfügen. Bei diesen Polymeren lässt sich die Länge des hydrophoben Teils in situ durch Veränderung der Temperatur variieren. Das Verhalten der amphiphilen Sternpolymere in wässriger Lösung und in Mikroemulsion wurde im Rahmen einer Kooperation an der TU Berlin mit Hilfe von Kleinwinkel-Neutronenstreuung (SANS), dynamischer Lichtstreuung (DLS) und Rheologie untersucht. Die Polymere wirken durch Assoziation der hydrophoben Endgruppen als effektive Verdicker sowohl allein in wässriger Lösung als auch in Mikroemulsion. Die Struktur des gebildeten Netzwerks hängt dabei von der Konzentration des Polymers in der Lösung und der Länge der Endgruppe (Hydrophobie) ab. Die dynamischen Eigenschaften der Lösungen werden außerdem durch die Anzahl der Arme der Polymere bestimmt.
This work describes the synthesis and characterization of stimuli-responsive polymers made by reversible addition-fragmentation chain transfer (RAFT) polymerization and the investigation of their self-assembly into “smart” hydrogels. In particular the hydrogels were designed to swell at low temperature and could be reversibly switched to a collapsed hydrophobic state by rising the temperature. Starting from two constituents, a short permanently hydrophobic polystyrene (PS) block and a thermo-responsive poly(methoxy diethylene glycol acrylate) (PMDEGA) block, various gelation behaviors and switching temperatures were achieved. New RAFT agents bearing tert-butyl benzoate or benzoic acid groups, were developed for the synthesis of diblock, symmetrical triblock and 3-arm star block copolymers. Thus, specific end groups were attached to the polymers that facilitate efficient macromolecular characterization, e.g by routine 1H-NMR spectroscopy. Further, the carboxyl end-groups allowed functionalizing the various polymers by a fluorophore. Because reports on PMDEGA have been extremely rare, at first, the thermo-responsive behavior of the polymer was investigated and the influence of factors such as molar mass, nature of the end-groups, and architecture, was studied. The use of special RAFT agents enabled the design of polymer with specific hydrophobic and hydrophilic end-groups. Cloud points (CP) of the polymers proved to be sensitive to all molecular variables studied, namely molar mass, nature and number of the end-groups, up to relatively high molar masses. Thus, by changing molecular parameters, CPs of the PMDEGA could be easily adjusted within the physiological interesting range of 20 to 40°C. A second responsivity, namely to light, was added to the PMDEGA system via random copolymerization of MDEGA with a specifically designed photo-switchable azobenzene acrylate. The composition of the copolymers was varied in order to determine the optimal conditions for an isothermal cloud point variation triggered by light. Though reversible light-induced solubility changes were achieved, the differences between the cloud points before and after the irradiation were small. Remarkably, the response to light differed from common observations for azobenzene-based systems, as CPs decreased after UV-irradiation, i.e with increasing content of cis-azobenzene units. The viscosifying and gelling abilities of the various block copolymers made from PS and PMDEGA blocks were studied by rheology. Important differences were observed between diblock copolymers, containing one hydrophobic PS block only, the telechelic symmetrical triblock copolymers made of two associating PS termini, and the star block copolymers having three associating end blocks. Regardless of their hydrophilic block length, diblock copolymers PS11 PMDEGAn were freely flowing even at concentrations as high as 40 wt. %. In contrast, all studied symmetrical triblock copolymers PS8-PMDEGAn-PS8 formed gels at low temperatures and at concentrations as low as 3.5 wt. % at best. When heated, these gels underwent a gel-sol transition at intermediate temperatures, well below the cloud point where phase separation occurs. The gel-sol transition shifted to markedly higher transition temperatures with increasing length of the hydrophilic inner block. This effect increased also with the number of arms, and with the length of the hydrophobic end blocks. The mechanical properties of the gels were significantly altered at the cloud point and liquid-like dispersions were formed. These could be reversibly transformed into hydrogels by cooling. This thesis demonstrates that high molar mass PMDEGA is an easily accessible, presumably also biocompatible and at ambient temperature well water-soluble, non-ionic thermo-responsive polymer. PMDEGA can be easily molecularly engineered via the RAFT method, implementing defined end-groups, and producing different, also complex, architectures, such as amphiphilic triblock and star block copolymers, having an analogous structure to associative telechelics. With appropriate design, such amphiphilic copolymers give way to efficient, “smart” viscosifiers and gelators displaying tunable gelling and mechanical properties.
In this work, the synthesis of biopolymer-based hydrogel networks with defined architecture is presented. In order to obtain materials with defined properties, the chemoselective copper-catalyzed azide-alkyne cycloaddition (or Click Chemistry) was used for the synthesis of gelatin-based hydrogels. Alkyne-functionalized gelatin was reacted with four different diazide crosslinkers above its sol-gel transition to suppress the formation of triple helices. By variation of the crosslinking density and the crosslinker flexibility, the swelling (Q: 150-470 vol.-%;) and the Young’s and shear moduli (E: 50 kPa - 635 kPa, G’: 0.1 kPa - 16 kPa) could be tuned in the kPa range. In order to understand the network structure, a method based on the labelling of free functional groups within the hydrogel was developed. Gelatin-based hydrogels were incubated with alkyne-functionalized fluorescein to detect the free azide groups, resulting from the formation of dangling chains. Gelatin hydrogels were also incubated with azido-functionalized fluorescein to check the presence of alkyne groups available for the attachment of bioactive molecules. By using confocal laser scanning microscopy and fluorescence spectroscopy, the amount of crosslinking, grafting and free alkyne groups could be determined. Dangling chains were observed in samples prepared by using an excess of crosslinker and also when using equimolar amounts of alkyne:azide. In the latter case the amount of dangling chains was affected by the crosslinker structure. Specifically, 0.1% of dangling chains were found using 4,4’-diazido-2,2’-stilbene-disulfonic acid as cosslinker, 0.06% with 1,8-diazidooctane, 0.05% with 1,12-diazidododecane and 0.022 % with PEG-diazide. This observation could be explained considering the structure of the crosslinkers. During network formation, the movements of the gelatin chains are restricted due to the formation of covalent netpoints. A further crosslinking will be possible only in the case of crosslinker that are flexible and long enough to reach another chain. The method used to obtain defined gelatin-based hydrogels enabled also the synthesis of hyaluronic acid-based hydrogels with tailorable properties. Alkyne-functionalized hyaluronic acid was crosslinked with three different linkers having two terminal azide functionalities. By variation of the crosslinking density and crosslinker type, hydrogels with elastic moduli in the range of 0.5-3 kPa have been prepared. The variation of the crosslinking density and crosslinker type had furthermore an influence also on the hydrolytic and enzymatic degradation of gelatin-based hydrogels. Hydrogels with a low crosslinker amount experienced a faster decrease in mass loss and elastic modulus compared to hydrogels with higher crosslinker content. Moreover, the structure of the crosslinker had a strong influence on the enzymatic degradation. Hydrogels containing a crosslinker with a rigid structure were much more resistant to enzymatic degradation than hydrogels containing a flexible crosslinker. During hydrolytic degradation, the hydrogel became softer while maintaining the same outer dimensions. These observations are in agreement with a bulk degradation mechanism, while the decrease in size of the hydrogels during enzymatic degradation suggested a surface erosion mechanism. Because of the use of small amount of crosslinker (0.002 mol.% 0.02 mol.%) the networks synthesized can still be defined as biopolymer-based hydrogels. However, they contain a small percentage of synthetic residues. Alternatively, a possible method to obtain biopolymer-based telechelics, which could be used as crosslinkers, was investigated. Gelatin-based fragments with defined molecular weight were obtained by controlled degradation of gelatin with hydroxylamine, due to its specific action on asparaginyl-glycine bonds. The reaction of gelatin with hydroxylamine resulted in fragments with molecular weights of 15, 25, 37, and 50 kDa (determined by SDS-PAGE) independently of the reaction time and conditions. Each of these fragments could be potentially used for the synthesis of hydrogels in which all components are biopolymer-based materials.
Fußverkehr findet im gesamten öffentlichen Raum statt und ermöglicht die lückenlose Verbindung von Tür zu Tür. Jeder Mensch steht vor Beginn einer Fortbewegung vor den Fragen „Wo bin ich?“, „Wo liegt mein Ziel?“ und „Wie komme ich dahin?“. Ein Großteil der auf dem Markt befindlichen Navigationssysteme für Fußgänger stellen reduzierte Varianten aus Fahrzeugen dar und basieren auf 2D- Kartendarstellungen oder bilden die Realität als dreidimensionales Modell ab. Navigationsprobleme entstehen dann, wenn es dem Nutzer nicht gelingt, die Information aus der Anweisung auf die Wirklichkeit zu beziehen und umzusetzen. Ein möglicher Grund dafür liegt in der Visualisierung der Navigationsanweisung. Die räumliche Wahrnehmung des Menschen erfolgt ausgehend von einem bestimmten Betrachtungsstandpunkt und bringt die Lage von Objekten und deren Beziehung zueinander zum Ausdruck. Der Einsatz von Augmented Reality (erweiterte Realität) entspricht dem Erscheinungsbild der menschlichen Wahrnehmung und ist für Menschen eine natürliche und zugleich vertraute Ansichtsform. Im Unterschied zu kartographischer Visualisierung wird die Umwelt mittels Augmented Reality nicht modelliert, sondern realitätsgetreu abgebildet und ergänzt. Das Ziel dieser Arbeit ist ein Navigationsverfahren, das der natürlichen Fort-bewegung und Sichtweise von Fußgängern gerecht wird. Das Konzept basiert auf dem Einsatz einer Kombination aus Realität und virtueller Realität zu einer erweiterten Ansicht. Da keine Darstellungsform als die Route selbst besser geeignet ist, um einen Routenverlauf zu beschreiben, wird die Realität durch eine virtuelle Route erweitert. Die perspektivische Anpassung der Routendarstellung erfordert die sensorische Erfassung der Position und Lage des Betrachtungsstandpunktes. Das der Navigation zu Grunde liegende Datenmodell bleibt dem Betrachter dabei verborgen und ist nur in Form der erweiterten Realität sichtbar. Der im Rahmen dieser Arbeit entwickelte Prototyp trägt die Bezeichnung RealityView. Die Basis bildet ein freies und quelloffenes Navigationssystem, das für die Fußgängernavigation modular erweitert wurde. Das Ergebnis ist ein smartphonebasierter Navigationsprototyp, in dem die Ansichtsform einer zweidimensionalen Bildschirmkarte im Grundriss und die Darstellung einer erweiterten Realität im Aufriss kombiniert werden. Die Evaluation des Prototyps bestätigt die Hypothese, dass der Einsatz von Augmented Reality für die Navigation von Fußgängern möglich ist und von der Nutzergruppe akzeptiert wird. Darüber hinaus bescheinigen Wissenschaftler im Rahmen von Experten-interviews den konzeptionellen Ansatz und die prototypische Umsetzung des RealityView. Die Auswertung einer Eye-Tracking-Pilotstudie erbrachte den Nachweis, dass Fußgänger die Navigationsanweisung auf markante Objekte der Umwelt beziehen, deren Auswahl durch den Einsatz von Augmented Reality begünstigt wird.
Essstörungen bei Jugendlichen im Hochleistungssport : eine Analyse sportbezogener Einflussfaktoren
(2012)
Essstörungen, wie Anorexia Nervosa oder Bulimia Nervorsa, gehen mit einer hohen psychischen Belastung einher und können gesundheitliche Schäden zur Folge haben. Bei Athleten mit einer Essstörung kann es darüber hinaus zu Einbußen in der Sportleistung kommen. Gerade für den Hochleistungssport ist es daher wichtig zu wissen, welches Risiko für Essstörungen besteht und wodurch das Risiko bedingt wird. Bisherige Studien zeigen deutliche Unterschiede zwischen den Sportarten. Eliteathleten aus ästhetischen Sportarten, wie rhythmische Sportgymnastik oder Eiskunstlauf, scheinen ein besonders hohes Essstörungsrisiko aufzuweisen. Deutlich geringere Prävalenzraten finden sich in Ballsportarten, wie Handball oder Basketball. Um zu verstehen, welche Aspekte der Sportart das Essstörungsrisiko beeinflussen, beschäftigt sich die vorliegende Arbeit mit der Rolle sportbezogener Variablen. In die Studien einbezogen wurden insgesamt 171 Athleten zwischen 11 und 18 Jahren (im Mittel 14.1 ± 1.8 Jahre) aus ästhetischen Sportarten und Ballsportarten, die einen Fragebogenpaket mit Instrumenten zu gestörtem Essverhalten, allgemeiner Körperunzufriedenheit, sozialem Druck im Sport, sportbezogener Körperunzufriedenheit, Schlankheitsstreben zur Leistungssteigerung und negativen Gefühle bei Trainingsausfall ausfüllten. Nach einem Jahr wieder befragt wurden 65 Athleten aus ästhetischen Sportarten. Nach Kontrolle von Alter, Geschlecht, BMI und allgemeiner Körperunzufriedenheit trugen sportbezogene Variablen signifikant zur weiteren Varianzaufklärung gestörten Essverhaltens bei. Die Längsschnittanalysen bestätigten einen Risikofaktorstatus für Schlankheitsstreben zur Leistungssteigerung. Zusammenhänge zwischen sportbezogenen Aspekten und gestörtem Essverhalten zeigten sich sowohl in Hochrisikosportarten für gestörtes Essverhalten (ästhetischen Sportarten), als auch in Niedrigrisikosportarten für gestörtes Essverhalten (Ballsportarten). Mit Ausnahme von negativen Gefühlen nach Trainingsausfall traten die sportbezogenen Variabeln häufiger in den ästhetischen Sportarten auf als in den Ballsportarten. Die eigenen Befunde verdeutlichen somit, dass der Einbezug potentieller sportbezogener Risikofaktoren − zusätzlich zu den allgemeinen Risikofaktoren − zum besseren Verständnis der Essstörungssymptomatik von Athleten beiträgt. Vor allem die Bedeutung von Gewicht für die Leistung beeinflusst das Essstörungsrisiko bei Athleten und ist stärker ausgeprägt in Hochrisikosportarten für Essstörungssymptomatik.
The constantly growing capacity of reconfigurable devices allows simultaneous execution of complex applications on those devices. The mere diversity of applications deems it impossible to design an interconnection network matching the requirements of every possible application perfectly, leading to suboptimal performance in many cases. However, the architecture of the interconnection network is not the only aspect affecting performance of communication. The resource manager places applications on the device and therefore influences latency between communicating partners and overall network load. Communication protocols affect performance by introducing data and processing overhead putting higher load on the network and increasing resource demand. Approaching communication holistically not only considers the architecture of the interconnect, but communication-aware resource management, communication protocols and resource usage just as well. Incorporation of different parts of a reconfigurable system during design- and runtime and optimizing them with respect to communication demand results in more resource efficient communication. Extensive evaluation shows enhanced performance and flexibility, if communication on reconfigurable devices is regarded in a holistic fashion.
Der Förster-Resonanzenergietransfer (FRET) liefert einen wichtigen Beitrag bei der Untersuchung kleinskaliger biologischer Systeme und Prozesse. Möglich wird dies durch die r-6-Abhängigkeit des FRET, die es erlaubt Abstände und strukturelle Änderungen weit unterhalb der Beugungsgrenze des Lichts mit hoher Sensitivität und geringem Aufwand zu bestimmen. Die besonderen photophysikalischen Eigenschaften von Terbiumkomplexen (LTC) und Quantenpunkten (QD) machen sie zu geeigneten Kandidaten für hochsensitive und störungsarme Multiplex-Abstandsmessungen in biologischen Systemen und Prozessen. Die Abstandsbestimmungen setzen jedoch eine genaueste Kenntnis des Mechanismus des Energietransfers von LTC auf QD ebenso voraus, wie das Wissen um Größe und Gestalt letzterer. Quantenpunkte haben im Vergleich zu biologischen Strukturen ähnliche Dimensionen und können nicht als punktförmig betrachtet werden, wie es bei einfacheren Farbstoffen möglich ist. Durch ihre Form kommt es zu einer Abstandsverteilung innerhalb des Donor-Akzeptorsystems. Dies beeinflusst den Energietransfer und damit die experimentellen Ergebnisse. In dieser Arbeit wurde der Energietransfer von LTC auf QD untersucht, um zu einer Aussage hinsichtlich des Mechanismus der Energieübertragung und der dabei zu berücksichtigenden photophysikalischen und strukturellen Parameter von LTC und QD zu gelangen. Mit der Annahme einer Abstandsverteilung sollten die Größen der Quantenpunkte bestimmt und der Einfluss von Form und Gestalt auf den Energietransfer betrachtet werden. Die notwendigen theoretischen und praktischen Grundlagen wurden eingangs dargestellt. Daran schlossen sich Messungen zur photophysikalischen Charakterisierung der Donoren und Akzeptoren an, die Grundlage der Berechnung der FRET-Parameter waren. Die Förster-Radien zeigten die für den FRET von LTC auf QD typischen extrem hohen Werte von bis zu 11 nm. Zeitaufgelöste Messungen der FRET-induzierten Lumineszenz der Donoren und Akzeptoren in den beiden biomolekularen Modellsystemen Zink-Histidin und Biotin-Streptavidin beschlossen den praktischen Teil. Als Donor wurde Lumi4Tb gebunden an ein Peptid bzw. Streptavidin genutzt, Akzeptoren waren fünf verschiedene, kommerziell erhältliche Quantenpunkte mit Carboxyl- bzw. Biotinfunktionalisierung. Bei allen Donor-Akzeptor-Paarungen konnte FRET beobachtet und ausgewertet werden. Es konnte gezeigt werden, dass die gesamte Emission des Terbiums zum Energietransfer beiträgt und der Orientierungsfaktor ² den Wert 2/3 annimmt. Die Charakterisierung der Bindungsverhältnisse innerhalb der FRET-Paare von LTC und QD über Verteilungsfunktionen bietet über die Form der Verteilungskurve die Möglichkeit Aussagen über die Gestalt der FRET-Partner zu treffen. So war es möglich, die mittlere Form der Quantenpunkte als Sphäre zu bestimmen. Dies entsprach, insbesondere bei den in z-Richtung des Kristallgitters elongierten Quantenpunkten, nicht den Erwartungen. Dieser Befund ermöglicht daher bei zukünftigen Messungen eine Verbesserung der Genauigkeit bei Abstandsbestimmungen mit Quantenpunkten. Neben der Ermittlung der die FRET-Verteilung bestimmenden Gestalt der Quantenpunkte konnte im Rahmen dieser Arbeit anhand vergleichender Messungen die Dicke der Polymerhülle der QD bestimmt und so gezeigt werden, dass FRET-Paare aus lumineszenten Terbiumkomplexen und Quantenpunkten in der Lage sind, Abstände im Nano- bis Sub-Nanometerbereich aufzulösen.
Die Strahlentherapie ist neben der Chemotherapie und einer operativen Entfernung die stärkste Waffe für die Bekämpfung bösartiger Tumore in der Krebsmedizin. Nach Herz-Kreislauf-Erkrankungen ist Krebs die zweithäufigste Todesursache in der westlichen Welt, wobei Prostatakrebs heutzutage die häufigste, männliche Krebserkrankung darstellt. Trotz technologischer Fortschritte der radiologischen Verfahren kann es noch viele Jahre nach einer Radiotherapie zu einem Rezidiv kommen, was zum Teil auf die hohe Resistenzfähigkeit einzelner, entarteter Zellen des lokal vorkommenden Tumors zurückgeführt werden kann. Obwohl die moderne Strahlenbiologie viele Aspekte der Resistenzmechanismen näher beleuchtet hat, bleiben Fragestellungen, speziell über das zeitliche Ansprechen eines Tumors auf ionisierende Strahlung, größtenteils unbeantwortet, da systemweite Untersuchungen nur begrenzt vorliegen. Als Zellmodelle wurden vier Prostata-Krebszelllinien (PC3, DuCaP, DU-145, RWPE-1) mit unterschiedlichen Strahlungsempfindlichkeiten kultiviert und auf ihre Überlebensfähigkeit nach ionisierender Bestrahlung durch einen Trypanblau- und MTT-Vitalitätstest geprüft. Die proliferative Kapazität wurde mit einem Koloniebildungstest bestimmt. Die PC3 Zelllinie, als Strahlungsresistente, und die DuCaP Zelllinie, als Strahlungssensitive, zeigten dabei die größten Differenzen bezüglich der Strahlungsempfindlichkeit. Auf Grundlage dieser Ergebnisse wurden die beiden Zelllinien ausgewählt, um anhand ihrer transkriptomweiten Genexpressionen, eine Identifizierung potentieller Marker für die Prognose der Effizienz einer Strahlentherapie zu ermöglichen. Weiterhin wurde mit der PC3 Zelllinie ein Zeitreihenexperiment durchgeführt, wobei zu 8 verschiedenen Zeitpunkten nach Bestrahlung mit 1 Gy die mRNA mittels einer Hochdurchsatz-Sequenzierung quantifiziert wurde, um das dynamisch zeitversetzte Genexpressionsverhalten auf Resistenzmechanismen untersuchen zu können. Durch das Setzen eines Fold Change Grenzwertes in Verbindung mit einem P-Wert < 0,01 konnten aus 10.966 aktiven Genen 730 signifikant differentiell exprimierte Gene bestimmt werden, von denen 305 stärker in der PC3 und 425 stärker in der DuCaP Zelllinie exprimiert werden. Innerhalb dieser 730 Gene sind viele stressassoziierte Gene wiederzufinden, wie bspw. die beiden Transmembranproteingene CA9 und CA12. Durch Berechnung eines Netzwerk-Scores konnten aus den GO- und KEGG-Datenbanken interessante Kategorien und Netzwerke abgeleitet werden, wobei insbesondere die GO-Kategorien Aldehyd-Dehydrogenase [NAD(P)+] Aktivität (GO:0004030) und der KEGG-Stoffwechselweg der O-Glykan Biosynthese (hsa00512) als relevante Netzwerke auffällig wurden. Durch eine weitere Interaktionsanalyse konnten zwei vielversprechende Netzwerke mit den Transkriptionsfaktoren JUN und FOS als zentrale Elemente identifiziert werden. Zum besseren Verständnis des dynamisch zeitversetzten Ansprechens der strahlungsresistenten PC3 Zelllinie auf ionisierende Strahlung, konnten anhand der 10.840 exprimierten Gene und ihrer Expressionsprofile über 8 Zeitpunkte interessante Einblicke erzielt werden. Während es innerhalb von 30 min (00:00 - 00:30) nach Bestrahlung zu einer schnellen Runterregulierung der globalen Genexpression kommt, folgen in den drei darauffolgenden Zeitabschnitten (00:30 - 01:03; 01:03 - 02:12; 02:12 - 04:38) spezifische Expressionserhöhungen, die eine Aktivierung schützender Netzwerke, wie die Hochregulierung der DNA-Reparatursysteme oder die Arretierung des Zellzyklus, auslösen. In den abschließenden drei Zeitbereichen (04:38 - 09:43; 09:43 - 20:25; 20:25 - 42:35) liegt wiederum eine Ausgewogenheit zwischen Induzierung und Supprimierung vor, wobei die absoluten Genexpressionsveränderungen ansteigen. Beim Vergleich der Genexpressionen kurz vor der Bestrahlung mit dem letzten Zeitpunkt (00:00 - 42:53) liegen mit 2.670 die meisten verändert exprimierten Gene vor, was einer massiven, systemweiten Genexpressionsänderung entspricht. Signalwege wie die ATM-Regulierung des Zellzyklus und der Apoptose, des NRF2-Signalwegs nach oxidativer Stresseinwirkung und die DNA-Reparaturmechanismen der homologen Rekombination, des nicht-homologen End Joinings, der MisMatch-, der Basen-Exzision- und der Strang-Exzision-Reparatur spielen bei der zellulären Antwort eine tragende Rolle. Äußerst interessant sind weiterhin die hohen Aktivitäten RNA-gesteuerter Ereignisse, insbesondere von small nucleolar RNAs und Pseudouridin-Prozessen. Demnach scheinen diese RNA-modifizierenden Netzwerke einen bisher unbekannten funktionalen und schützenden Einfluss auf das Zellüberleben nach ionisierender Bestrahlung zu haben. All diese schützenden Netzwerke mit ihren zeitspezifischen Interaktionen sind essentiell für das Zellüberleben nach Einwirkung von oxidativem Stress und zeigen ein komplexes aber im Einklang befindliches Zusammenspiel vieler Einzelkomponenten zu einem systemweit ablaufenden Programm.
Actin is one of the most abundant and highly conserved proteins in eukaryotic cells. The globular protein assembles into long filaments, which form a variety of different networks within the cytoskeleton. The dynamic reorganization of these networks - which is pivotal for cell motility, cell adhesion, and cell division - is based on cycles of polymerization (assembly) and depolymerization (disassembly) of actin filaments. Actin binds ATP and within the filament, actin-bound ATP is hydrolyzed into ADP on a time scale of a few minutes. As ADP-actin dissociates faster from the filament ends than ATP-actin, the filament becomes less stable as it grows older. Recent single filament experiments, where abrupt dynamical changes during filament depolymerization have been observed, suggest the opposite behavior, however, namely that the actin filaments become increasingly stable with time. Several mechanisms for this stabilization have been proposed, ranging from structural transitions of the whole filament to surface attachment of the filament ends. The key issue of this thesis is to elucidate the unexpected interruptions of depolymerization by a combination of experimental and theoretical studies. In new depolymerization experiments on single filaments, we confirm that filaments cease to shrink in an abrupt manner and determine the time from the initiation of depolymerization until the occurrence of the first interruption. This duration differs from filament to filament and represents a stochastic variable. We consider various hypothetical mechanisms that may cause the observed interruptions. These mechanisms cannot be distinguished directly, but they give rise to distinct distributions of the time until the first interruption, which we compute by modeling the underlying stochastic processes. A comparison with the measured distribution reveals that the sudden truncation of the shrinkage process neither arises from blocking of the ends nor from a collective transition of the whole filament. Instead, we predict a local transition process occurring at random sites within the filament. The combination of additional experimental findings and our theoretical approach confirms the notion of a local transition mechanism and identifies the transition as the photo-induced formation of an actin dimer within the filaments. Unlabeled actin filaments do not exhibit pauses, which implies that, in vivo, older filaments become destabilized by ATP hydrolysis. This destabilization can be identified with an acceleration of the depolymerization prior to the interruption. In the final part of this thesis, we theoretically analyze this acceleration to infer the mechanism of ATP hydrolysis. We show that the rate of ATP hydrolysis is constant within the filament, corresponding to a random as opposed to a vectorial hydrolysis mechanism.
Mikroorganismen in geothermischen Aquiferen : Einfluss mikrobieller Prozesse auf den Anlagenbetrieb
(2012)
In Fluid-, Filter- und Sedimentproben von vier geothermischen Anlagen des Norddeutschen Beckens wurden mit molekulargenetischen Verfahren unterschiedliche mikrobielle Gemeinschaften nachgewiesen. Die mikrobielle Zusammensetzung in den Prozesswässern wurde dabei durch die Aquiferteufe, die Salinität, die Temperatur und den verfügbaren Elektronendonatoren und -akzeptoren beeinflusst. Die in den anoxischen Prozesswässern identifizierten Organismen zeichneten sich durch einen chemoheterotrophen oder chemoautotrophen Stoffwechsel aus, wobei Nitrat, Sulfat, Eisen (III) oder Bikarbonat als terminale Elektronenakzeptoren fungierten. Mikroorganismen beeinflussten den Betrieb von zwei Anlagen negativ. So reduzierten im Prozesswasser des Kältespeichers am Berliner Reichstag vorhandene Eisenoxidierer, nahe verwandt zu der Gattung Gallionella, die Injektivität der Bohrungen durch Eisenhydroxidausfällungen in den Filterschlitzen. Biofilme, die von schwefeloxidierenden Bakterien der Gattung Thiothrix in den Filtern der obertägigen Anlage gebildet wurden, führten ebenfalls zu Betriebsstörungen, indem sie die Injektion des Fluids in den Aquifer behinderten. Beim Wärmespeicher in Neubrandenburg waren Sulfatreduzierer vermutlich an der Bildung von Eisensulfidausfällungen in den obertägigen Filtern und im bohrlochnahen Bereich beteiligt und verstärkten Korrosionsprozesse an der Pumpe im Bohrloch der kalten Aquiferseite. Organische Säuren in den Fluiden sowie mineralische Ausfällungen in den Filtern der obertägigen Anlagen waren Belege für die Aktivität der in den verschiedenen Anlagen vorhandenen Mikroorganismen. Es wurde zudem deutlich, dass Mikroorganismen auf Grund der hohen Durchflussraten in den Anlagen chemische Veränderungen in den Prozesswässern deutlich sensitiver anzeigen als chemische Analyseverfahren. So deuteten Änderungen in der Zusammensetzung der mikrobiellen Biozönosen und speziell die Identifikation von Indikatororganismen wie Eisen- und Schwefeloxidierern, fermentativen Bakterien und Sulfatreduzierern auf eine erhöhte Verfügbarkeit von Elektronendonatoren oder akzeptoren in den Prozesswässern hin. Die Ursachen für die an den Geothermieanlagen auftretenden Betriebsstörungen konnten dadurch erkannt werden.
In diesem Buch geht es um ein Phänomen, das als konstantes Element in der Geschichte des Christentums bezeichnet werden kann: Neuoffenbarungen. Denn der Kanonisierung der Bibel und dem kritischen Blick der kirchlichen Orthodoxie zum Trotz gab und gibt es immer wieder Menschen, die behaupten, dass sich ihnen Gottvater, Christus, der Heilige Geist oder andere Wesenheiten (Maria, Engel, Verstorbene) offenbart haben. Religionswissenschaftler haben das Thema bislang weitgehend ignoriert. Sie haben den Bereich des Christentums den Theologen überlassen und sich allenfalls mit frei flottierender Esoterik befasst. Theologen neigen ihrerseits dazu, Neuoffenbarungen apologetisch zu bekämpfen. Die vorliegende Untersuchung leistet daher einen wichtigen Beitrag zur religionswissenschaftlichen Erforschung des Themas. Im ersten Teil des Buches wird der Begriff „Neuoffenbarung“ aus verschiedenen religionswissenschaftlichen Perspektiven betrachtet. Zunächst wird untersucht, was die christliche Theologie unter „Offenbarung“ versteht. Danach werden die verschiedenen Termini analysiert, die für das Feld der außer- und nachbiblischen Offenbarungen kursieren (Neuoffenbarung, Privatoffenbarung, Channeling, Spiritismus, Prophetie u. v. m.). Anschließend werden jene Argumente referiert, die von Neuoffenbarungsanhängern bzw. kirchlichen Apologeten ins Feld geführt werden, um die Legitimität von Neuoffenbarungen zu behaupten bzw. zu bestreiten. Dass Neuoffenbarungen gar nicht so neu sind, zeigt ein religionshistorischer Überblick. Denn der Anspruch, besondere Offenbarungen empfangen zu haben, lässt sich in jeder Epoche des Christentums nachweisen. Nachdem einige Exponenten des prophetischen Charismas als ideengeschichtliche Vorläufer und Geistesverwandte der modernen Neuoffenbarungen vorgestellt wurden, werden diese schließlich selbst in den Fokus genommen. Das disparate Feld der Neuoffenbarungsträger des 19. und 20. Jahrhunderts wird anhand exemplarischer Gestalten in einer Typologie geordnet dargestellt. Um den Zitationszirkel zu durchbrechen, der sich offensichtlich im Diskurs etabliert hat, werden darin auch bislang weniger bekannte Neuoffenbarer vorgestellt. In einer Art Tiefenbohrung werden diese religionsphilosophischen, semantischen, historischen und systematischen Zugänge im zweiten Teil an der mexikanischen Neuoffenbarung „Das Buch des Wahren Lebens“ exemplifiziert. Die analysierende Darstellung beschränkt sich jedoch nicht auf ein isoliertes Objekt, sondern dies wird in einen komparatistischen Kontext gestellt: Zentrale Topoi des „Buches des Wahren Lebens“ (Christologie, Reinkarnationslehre, Kirchenkritik u. v. m.) werden zum einen in einer Synopse mit anderen Neuoffenbarungen dargestellt und zum anderen an der orthodoxen Theologie gespiegelt. Damit wird eine doppelte Differenz gezeigt: die Nähe/Ferne zu ähnlichen Phänomenen und die Nähe/Ferne zum kirchlichen Christentum.
Für den Einsatz in Autobatterien gibt es besondere Anforderungen an den Elektrolyten im Bereich der Energie- und Leistungsdichten, um beispielsweise thermische Verluste gering zu halten. Hochleitfähige Elektrolyte mit Leitfähigkeiten im Millisiemensbereich sind hier ebenso notwendig wie auch sichere, d.h. möglichst nicht brennbare und einen niedrigen Dampfdruck besitzende Materialien. Um diese Vorgaben zu erreichen, ist es notwendig, einen polymeren Separator zu entwickeln, welcher auf brennbare organische Lösungsmittel verzichtet und damit eine drastische Steigerung der Sicherheit gewährleistet. Gleichzeitig müssen hierbei die Leistungsvorgaben bezüglich der Leitfähigkeit erfüllt werden. Zu diesem Zweck wurde ein Konzept basierend auf der Kombination von einer polymeren sauerstoffreichen Matrix und einer ionischen Flüssigkeit entwickelt und verifiziert. Dabei wurden folgende Erkenntnisse gewonnen: 1. Es wurden neuartige diacrylierte sauerstoffreiche Matrixkomponenten mit vielen Carbonylfunktionen, für eine gute Lithiumleitfähigkeit, synthetisiert. 2. Es wurden mehrere neue ionische Flüssigkeiten sowohl auf Imidazolbasis als auch auf Ammoniumbasis synthetisiert und charakterisiert. 3. Die Einflüsse der Kationenstruktur und der Einfluss der Gegenionen im Bezug auf Schmelzpunkte und Leitfähigkeiten wurden untersucht. 4. Aus den entwickelten Materialien wurden Blendsysteme hergestellt und mittels Impedanzspektrometrie untersucht: Leitfähigkeiten von 10-4S/cm bei Raumtemperatur sind realisierbar. 5. Die Blendsysteme wurden auf ihre thermische Stabilität hin untersucht: Stabilitäten bis 250°C sind erreichbar. Dabei wird keine kristalline Struktur beobachtet.
Immune genes of the major histocompatibility complex (MHC) constitute a central component of the adaptive immune system and play an essential role in parasite resistance and associated life-history strategies. In addition to pathogen-mediated selection also sexual selection mechanisms have been identified as the main drivers of the typically-observed high levels of polymorphism in functionally important parts of the MHC. The recognition of the individual MHC constitution is presumed to be mediated through olfactory cues. Indeed, MHC genes are in physical linkage with olfactory receptor genes and alter the individual body odour. Moreover, they are expressed on sperm and trophoplast cells. Thus, MHC-mediated sexual selection processes might not only act in direct mate choice decisions, but also through cryptic processes during reproduction. Bats (Chiroptera) represent the second largest mammalian order and have been identified as important vectors of newly emerging infectious diseases affecting humans and wildlife. In addition, they are interesting study subjects in evolutionary ecology in the context of olfactory communication, mate choice and associated fitness benefits. Thus, it is surprising that Chiroptera belong to the least studied mammalian taxa in terms of their MHC evolution. In my doctoral thesis I aimed to gain insights in the evolution and diversity pattern of functional MHC genes in some of the major New World bat families by establishing species-specific primers through genome-walking into unknown flanking parts of familiar sites. Further, I took a free-ranging population of the lesser bulldog bat (Noctilio albiventris) in Panama as an example to understand the functional importance of the individual MHC constitution in parasite resistance and reproduction as well as the possible underlying selective forces shaping the observed diversity. My studies indicated that the typical MHC characteristics observed in other mammalian orders, like evidence for balancing and positive selection as well as recombination and gene conversion events, are also present in bats shaping their MHC diversity. I found a wide range of copy number variation of expressed DRB loci in the investigated species. In Saccopteryx bilineata, a species with a highly developed olfactory communication system, I found an exceptionally high number of MHC loci duplications generating high levels of variability at the individual level, which has never been described for any other mammalian species so far. My studies included for the first time phylogenetic relationships of MHC genes in bats and I found signs for a family-specific independent mode of evolution of duplicated genes, regardless whether the highly variable exon 2 (coding for the antigen binding region of the molecule) or more conserved exons (3, 4; encoding protein stabilizing parts) were considered indicating a monophyletic origin of duplicated loci within families. This result questions the general assumed pattern of MHC evolution in mammals where duplicated genes of different families usually cluster together suggesting that duplication occurred before speciation took place, which implies a trans-species mode of evolution. However, I found a trans-species mode of evolution within genera (Noctilio, Myotis) based on exon 2 signified by an intermingled clustering of DRB alleles. The gained knowledge on MHC sequence evolution in major New World bat families will facilitate future MHC investigations in this order. In the N. albiventris study population, the single expressed MHC class II DRB gene showed high sequence polymorphism, moderate allelic variability and high levels of population-wide heterozygosity. Whereas demographic processes had minor relevance in shaping the diversity pattern, I found clear evidence for parasite-mediated selection. This was evident by historical positive Darwinian selection maintaining diversity in the functionally important antigen binding sites, and by specific MHC alleles which were associated with low and high ectoparasite burden according to predictions of the ‘frequency dependent selection hypothesis’. Parasite resistance has been suggested to play an important role in mediating costly life history trade-offs leading to e.g. MHC- mediated benefits in sexual selection. The ‘good genes model’ predicts that males with a genetically well-adapted immune system in defending harmful parasites have the ability to allocate more resources to reproductive effort. I found support for this prediction since non-reproductive adult N. albiventris males carried more often an allele associated with high parasite loads, which differentiated them genetically from reproductively active males as well as from subadults, indicating a reduced transmission of this allele in subsequent generations. In addition, they suffered from increased ectoparasite burden which presumably reduced resources to invest in reproduction. Another sign for sexual selection was the observation of gender-specific difference in heterozygosity, with females showing lower levels of heterozygosity than males. This signifies that the sexes differ in their selection pressures, presumably through MHC-mediated molecular processes during reproduction resulting in a male specific heterozygosity advantage. My data make clear that parasite-mediated selection and sexual selection are interactive and operate together to form diversity at the MHC. Furthermore, my thesis is one of the rare studies contributing to fill the gap between MHC-mediated effects on co-evolutionary processes in parasite-host-interactions and on aspects of life-history evolution.
Ten polyQ (polyglutamine) diseases constitute a group of hereditary, neurodegenerative, lethal disorders, characterized by neuronal loss and motor and cognitive impairments. The only common molecular feature of polyQ disease-associated proteins is the homopolymeric polyglutamine repeat. The pathological expansion of polyQ tract invariably leads to protein misfolding and aggregation, resulting in formation of the fibrillar intraneuronal deposits (aggregates) of the disease protein. The polyQ-related cellular toxicity is currently attributed to early, small, soluble aggregate species (oligomers), whereas end-stage, fibrillar, insoluble aggregates are considered to be benign. In the complex cellular environment aggregation and toxicity of mutant polyQ proteins can be affected by both the sequences of the corresponding disease protein (factors acting in cis) and the cellular environment (factors acting in trans). Additionally, the nucleus has been suggested to be the primary site of toxicity in the polyQ-based neurodegeneration. In this study, the dynamics and structure of nuclear and cytoplasmic inclusions were examined to determine the intrinsic and extrinsic factors influencing the cellular aggregation of atrophin-1, a protein implicated in the pathology of dentatorubral-pallidoluysian atrophy (DRPLA), a polyQ-based disease with complex clinical features. Dynamic imaging, combined with biochemical and biophysical approaches revealed a large heterogeneity in the dynamics of atrophin-1 within the nuclear inclusions compared with the compact and immobile cytoplasmic aggregates. At least two types of inclusions of polyQ-expanded atrophin-1 with different mobility of the molecular species and ability to exchange with the surrounding monomer pool coexist in the nucleus of the model cell system, neuroblastoma N2a cells. Furthermore, our novel cross-seeding approach which allows for monitoring of the architecture of the aggregate core directly in the cell revealed an evolution of the aggregate core of the polyQ-expanded ATN1 from one composed of the sequences flanking the polyQ domain at early aggregation phases to one dominated by the polyQ stretch in the later aggregation phase. Intriguingly, these changes in the aggregate core architecture of nuclear and cytoplasmic inclusions mirrored the changes in the protein dynamics and physico-chemical properties of the aggregates in the aggregation time course. 2D-gel analyses followed by MALDI-TOF MS (matrix-assisted laser desorption/ionization time of flight mass spectrometry) were used to detect alterations in the interaction partners of the pathological ATN1 variant compared to the non-pathological ATN1. Based on these results, we propose that the observed complexity in the dynamics of the nuclear inclusions provides a molecular explanation for the enhanced cellular toxicity of the nuclear aggregates in polyQ-based neurodegeneration.
The present work is devoted to establishing of a new generation of self-healing anti-corrosion coatings for protection of metals. The concept of self-healing anticorrosion coatings is based on the combination of the passive part, represented by the matrix of conventional coating, and the active part, represented by micron-sized capsules loaded with corrosion inhibitor. Polymers were chosen as the class of compounds most suitable for the capsule preparation. The morphology of capsules made of crosslinked polymers, however, was found to be dependent on the nature of the encapsulated liquid. Therefore, a systematic analysis of the morphology of capsules consisting of a crosslinked polymer and a solvent was performed. Three classes of polymers such as polyurethane, polyurea and polyamide were chosen. Capsules made of these polymers and eight solvents of different polarity were synthesized via interfacial polymerization. It was shown that the morphology of the resulting capsules is specific for every polymer-solvent pair. Formation of capsules with three general types of morphology, such as core-shell, compact and multicompartment, was demonstrated by means of Scanning Electron Microscopy. Compact morphology was assumed to be a result of the specific polymer-solvent interactions and be analogues to the process of swelling. In order to verify the hypothesis, pure polyurethane, polyurea and polyamide were synthesized; their swelling behavior in the solvents used as the encapsulated material was investigated. It was shown that the swelling behavior of the polymers in most cases correlates with the capsules morphology. Different morphologies (compact, core-shell and multicompartment) were therefore attributed to the specific polymer-solvent interactions and discussed in terms of “good” and “poor” solvent. Capsules with core-shell morphology are formed when the encapsulated liquid is a “poor” solvent for the chosen polymer while compact morphologies are formed when the solvent is “good”. Multicompartment morphology is explained by the formation of infinite networks or gelation of crosslinked polymers. If gelation occurs after the phase separation in the system is achieved, core-shell morphology is present. If gelation of the polymer occurs far before crosslinking is accomplished, further condensation of the polymer due to the crosslinking may lead to the formation of porous or multicompartment morphologies. It was concluded that in general, the morphology of capsules consisting of certain polymer-solvent pairs can be predicted on the basis of polymer-solvent behavior. In some cases, the swelling behavior and morphology may not match. The reasons for that are discussed in detail in the thesis. The discussed approach is only capable of predicting capsule morphology for certain polymer-solvent pairs. In practice, the design of the capsules assumes the trial of a great number of polymer-solvent combinations; more complex systems consisting of three, four or even more components are often used. Evaluation of the swelling behavior of each component pair of such systems becomes unreasonable. Therefore, exploitation of the solubility parameter approach was found to be more useful. The latter allows consideration of the properties of each single component instead of the pair of components. In such a manner, the Hansen Solubility Parameter (HSP) approach was used for further analysis. Solubility spheres were constructed for polyurethane, polyurea and polyamide. For this a three-dimensional graph is plotted with dispersion, polar and hydrogen bonding components of solubility parameter, obtained from literature, as the orthogonal axes. The HSP of the solvents are used as the coordinates for the points on the HSP graph. Then a sphere with a certain radius is located on a graph, and the “good” solvents would be located inside the sphere, while the “poor” ones are located outside. Both the location of the sphere center and the sphere radius should be fitted according to the information on polymer swelling behavior in a number of solvents. According to the existing correlation between the capsule morphology and swelling behavior of polymers, the solvents located inside the solubility sphere of a polymer give capsules with compact morphologies. The solvents located outside the solubility sphere of the solvent give either core-shell or multicompartment capsules in combination with the chosen polymer. Once the solubility sphere of a polymer is found, the solubility/swelling behavior is approximated to all possible substances. HSP theory allows therefore prediction of polymer solubility/swelling behavior and consequently the capsule morphology for any given substance with known HSP parameters on the basis of limited data. The latter makes the theory so attractive for application in chemistry and technology, since the choice of the system components is usually performed on the basis of a large number of different parameters that should mutually match. Even slight change of the technology sometimes leads to the necessity to find the analogue of this or that solvent in a sense of solvency but carrying different chemistry. Usage of the HSP approach in this case is indispensable. In the second part of the work examples of the HSP application for the fabrication of capsules with on-demand-morphology are presented. Capsules with compact or core-shell morphology containing corrosion inhibitors were synthesized. Thus, alkoxysilanes possessing long hydrophobic tail, combining passivating and water-repelling properties, were encapsulated in polyurethane shell. The mechanism of action of the active material required core-shell morphology of the capsules. The new hybrid corrosion inhibitor, cerium diethylhexyl phosphate, was encapsulated in polyamide shells in order to facilitate the dispersion of the substance and improve its adhesion to the coating matrix. The encapsulation of commercially available antifouling agents in polyurethane shells was carried out in order to control its release behavior and colloidal stability. Capsules with compact morphology made of polyurea containing the liquid corrosion inhibitor 2-methyl benzothiazole were synthesized in order to improve the colloidal stability of the substance. Capsules with compact morphology allow slower release of the liquid encapsulated material compared to the core-shell ones. If the “in-situ” encapsulation is not possible due to the reaction of the oil-soluble monomer with the encapsulated material, a solution was proposed: loading of the capsules should be performed after monomer deactivation due to the accomplishment of the polymerization reaction. Capsules of desired morphologies should be preformed followed by the loading step. In this way, compact polyurea capsules containing the highly effective but chemically active corrosion inhibitors 8-hydroxyquinoline and benzotriazole were fabricated. All the resulting capsules were successfully introduced into model coatings. The efficiency of the resulting “smart” self-healing anticorrosion coatings on steel and aluminium alloy of the AA-2024 series was evaluated using characterization techniques such as Scanning Vibrating Electron Spectroscopy, Electrochemical Impedance Spectroscopy and salt-spray chamber tests.
Soil conditions under vegetation cover and their spatial and temporal variations from point to catchment scale are crucial for understanding hydrological processes within the vadose zone, for managing irrigation and consequently maximizing yield by precision farming. Soil moisture and soil roughness are the key parameters that characterize the soil status. In order to monitor their spatial and temporal variability on large scales, remote sensing techniques are required. Therefore the determination of soil parameters under vegetation cover was approached in this thesis by means of (multi-angular) polarimetric SAR acquisitions at a longer wavelength (L-band, lambda=23cm). In this thesis, the penetration capabilities of L-band are combined with newly developed (multi-angular) polarimetric decomposition techniques to separate the different scattering contributions, which are occurring in vegetation and on ground. Subsequently the ground components are inverted to estimate the soil characteristics. The novel (multi-angular) polarimetric decomposition techniques for soil parameter retrieval are physically-based, computationally inexpensive and can be solved analytically without any a priori knowledge. Therefore they can be applied without test site calibration directly to agricultural areas. The developed algorithms are validated with fully polarimetric SAR data acquired by the airborne E-SAR sensor of the German Aerospace Center (DLR) for three different study areas in Germany. The achieved results reveal inversion rates up to 99% for the soil moisture and soil roughness retrieval in agricultural areas. However, in forested areas the inversion rate drops significantly for most of the algorithms, because the inversion in forests is invalid for the applied scattering models at L-band. The validation against simultaneously acquired field measurements indicates an estimation accuracy (root mean square error) of 5-10vol.% for the soil moisture (range of in situ values: 1-46vol.%) and of 0.37-0.45cm for the soil roughness (range of in situ values: 0.5-4.0cm) within the catchment. Hence, a continuous monitoring of soil parameters with the obtained precision, excluding frozen and snow covered conditions, is possible. Especially future, fully polarimetric, space-borne, long wavelength SAR missions can profit distinctively from the developed polarimetric decomposition techniques for separation of ground and volume contributions as well as for soil parameter retrieval on large spatial scales.