TY - THES A1 - Scholz, Markus Reiner T1 - Spin polarization, circular dichroism, and robustness of topological surface states T1 - Spinpolarisation, Zirkulardichroismus und Robustheit Topologischer Oberflächenzustände BT - a photoemission study BT - eine Photoemissionsstudie N2 - Dreidimensionale topologische Isolatoren sind ein neues Materialsystem, welches dadurch charakterisiert ist, dass es in seinem Inneren isolierend an der Ober äche jedoch leitend ist. Ursächlich für die Leitfähigkeit an der Ober äche sind sogenannte topologische Ober- ächenzustände, welche das Valenzband des Inneren mit dem Leitungsband des Inneren verbinden. An der Ober äche ist also die Bandlücke, welche die isolierende Eigenschaft verursacht, geschlossen. Die vorliegende Arbeit untersucht diese Ober ächenzustände mittels spin- und winkelauf- gelöster Photoemissionsspektroskopie. Es wird gezeigt, dass in den Materialien Bi2Se3 und Bi2Te3, in übereinstimmung mit der Literatur, die entscheidenden Charakteristika eines topologischen Ober ächenzustands vorzu nden sind: Die Ober ächenzustände dieser Sys- teme durchqueren die Bandlücke in ungerader Anzahl, sie sind nicht entartet und weisen folgerichtig eine hohe Spinpolarisation auf. Weiterhin wird durch Aufdampfen diverser Adsorbate gezeigt, dass der Ober ächenzustän- de von Bi2Se3 und Bi2Te3, wie erwartet, extrem robust ist. Ober ächenzustände topologisch trivialer Systeme erfüllen diese Eigenschaft nicht; bereits kleine Verunreinigungen kön- nen diese Zustände zerstören, bzw. die Ober äche isolierend machen. Die topologischen Ober ächenzustände können in der vorliegenden Arbeit noch bis zur Detektionsgrenze der experimentellen Messmethode nachgewiesen werden und die Ober äche bleibt Leitfähig. Unter den Adsorbaten be ndet sich auch Eisen, ein bekanntermaßen magnetisches Materi- al. Eine der Grundvoraussetzungen für topologische Isolatoren ist die Zeitumkehrsymme- trie, die Elektronen, welche den topologischen Ober ächenzustand besetzen, vorschreibt, dass sie eine bestimmte Spinrichtung haben müssen, wenn sie sich beispielsweise nach links bewegen und den entgegengesetzten Spin wenn sie sich nach rechts bewegen. In magnetischen Materialien ist die Zeitumkehrsymmetrie jedoch explizit gebrochen und die gezeigte Robustheit des Ober ächenzustands gegen magnetische Materialien daher uner- wartet. Die Zeitumkehrsymmetrie sorgt auch dafür, dass eine Streuung der Elektronen um 180°, beispielsweise an einem Gitterdefekt oder an einem Phonon strikt verboten ist. Bei einem solchen Streuprozess bleibt die Spinrichtung erhalten, da aber in der Gegenrichtung nur Zustände mit entgegengesetztem Spin vorhanden sind kann das Elektron nicht in diese Richtung gestreut werden. Dieses Prinzip wird anhand der Lebensdauer der durch Pho- toemission angeregten Zustände untersucht. Hierbei wird gezeigt, dass die Kopplung der Elektronen des Ober ächenzustands von Bi2Te3 an Phononen unerwartet hoch ist und dass sich eine Anisotropie in der Bandstruktur des Selbigen auch in den Lebensdauern der ange- regten Zustände widerspiegelt. Weiterhin wird gezeigt, dass sich die Ein üsse von magne- tischen und nicht-magnetischen Verunreinigungen auf die Lebensdauern stark voneinander unterscheiden. Im letzten Teil der vorliegenden Arbeit wird untersucht, ob eine Asymmetrie in der Inten- sitätsverteilung der winkelaufgelösten Photoemissionsspektren, bei Anregung mit zirku- lar polarisiertem Licht, in Bi2Te3 Rückschlüsse auf die Spinpolarisation der Elektronen erlaubt. Bei Variation der Energie des eingestrahlten Lichts wird ein Vorzeichenwechsel der Asymmetrie beobachtet. Daraus lässt sich schlussfolgern, dass die Asymmetrie keine Rückschlüsse auf die Spinpolarisation erlaubt. N2 - This thesis is focussed on the electronic properties of the new material class named topological insulators. Spin and angle resolved photoelectron spectroscopy have been applied to reveal several unique properties of the surface state of these materials. The first part of this thesis introduces the methodical background of these quite established experimental techniques. In the following chapter, the theoretical concept of topological insulators is introduced. Starting from the prominent example of the quantum Hall effect, the application of topological invariants to classify material systems is illuminated. It is explained how, in presence of time reversal symmetry, which is broken in the quantum Hall phase, strong spin orbit coupling can drive a system into a topologically non trivial phase. The prediction of the spin quantum Hall effect in two dimensional insulators an the generalization to the three dimensional case of topological insulators is reviewed together with the first experimental realization of a three dimensional topological insulator in the Bi1-xSbx alloys given in the literature. The experimental part starts with the introduction of the Bi2X3 (X=Se, Te) family of materials. Recent theoretical predictions and experimental findings on the bulk and surface electronic structure of these materials are introduced in close discussion to our own experimental results. Furthermore, it is revealed, that the topological surface state of Bi2Te3 shares its orbital symmetry with the bulk valence band and the observation of a temperature induced shift of the chemical potential is to a high probability unmasked as a doping effect due to residual gas adsorption. The surface state of Bi2Te3 is found to be highly spin polarized with a polarization value of about 70% in a macroscopic area, while in Bi2Se3 the polarization appears reduced, not exceeding 50%. We, however, argue that the polarization is most likely only extrinsically limited in terms of the finite angular resolution and the lacking detectability of the out of plane component of the electron spin. A further argument is based on the reduced surface quality of the single crystals after cleavage and, for Bi2Se3 a sensitivity of the electronic structure to photon exposure. We probe the robustness of the topological surface state in Bi2X3 against surface impurities in Chapter 5. This robustness is provided through the protection by the time reversal symmetry. Silver, deposited on the (111) surface of Bi2Se3 leads to a strong electron doping but the surface state is observed up to a deposited Ag mass equivalent to one atomic monolayer. The opposite sign of doping, i.e., hole-like, is observed by exposing oxygen to Bi2Te3. But while the n-type shift of Ag on Bi2Se3 appears to be more or less rigid, O2 is lifting the Dirac point of the topological surface state in Bi2Te3 out of the valence band minimum at $\Gamma$. After increasing the oxygen dose further, it is possible to shift the Dirac point to the Fermi level, while the valence band stays well beyond. The effect is found reversible, by warming up the samples which is interpreted in terms of physisorption of O2. For magnetic impurities, i.e., Fe, we find a similar behavior as for the case of Ag in both Bi2Se3 and Bi2Te3. However, in that case the robustness is unexpected, since magnetic impurities are capable to break time reversal symmetry which should introduce a gap in the surface state at the Dirac point which in turn removes the protection. We argue, that the fact that the surface state shows no gap must be attributed to a missing magnetization of the Fe overlayer. In Bi2Te3 we are able to observe the surface state for deposited iron mass equivalents in the monolayer regime. Furthermore, we gain control over the sign of doping through the sample temperature during deposition. Chapter6 is devoted to the lifetime broadening of the photoemission signal from the topological surface states of Bi2Se3 and Bi2Te3. It is revealed that the hexagonal warping of the surface state in Bi2Te3 introduces an anisotropy for electrons traveling along the two distinct high symmetry directions of the surface Brillouin zone, i.e., $\Gamma$K and $\Gamma$M. We show that the phonon coupling strength to the surface electrons in Bi2Te3 is in nice agreement with the theoretical prediction but, nevertheless, higher than one may expect. We argue that the electron-phonon coupling is one of the main contributions to the decay of photoholes but the relatively small size of the Fermi surface limits the number of phonon modes that may scatter off electrons. This effect is manifested in the energy dependence of the imaginary part of the electron self energy of the surface state which shows a decay to higher binding energies in contrast to the monotonic increase proportional to E$^2$ in the Fermi liquid theory due to electron-electron interaction. Furthermore, the effect of the surface impurities of Chapter 5 on the quasiparticle life- times is investigated. We find that Fe impurities have a much stronger influence on the lifetimes as compared to Ag. Moreover, we find that the influence is stronger independently of the sign of the doping. We argue that this observation suggests a minor contribution of the warping on increased scattering rates in contrast to current belief. This is additionally confirmed by the observation that the scattering rates increase further with increasing silver amount while the doping stays constant and by the fact that clean Bi2Se3 and Bi2Te3 show very similar scattering rates regardless of the much stronger warping in Bi2Te3. In the last chapter we report on a strong circular dichroism in the angle distribution of the photoemission signal of the surface state of Bi2Te3. We show that the color pattern obtained by calculating the difference between photoemission intensities measured with opposite photon helicity reflects the pattern expected for the spin polarization. However, we find a strong influence on strength and even sign of the effect when varying the photon energy. The sign change is qualitatively confirmed by means of one-step photoemission calculations conducted by our collaborators from the LMU München, while the calculated spin polarization is found to be independent of the excitation energy. Experiment and theory together unambiguously uncover the dichroism in these systems as a final state effect and the question in the title of the chapter has to be negated: Circular dichroism in the angle distribution is not a new spin sensitive technique. KW - topological insulators KW - angle resolved photoelectron spectroscopy KW - spin resolved photoelectron spectroscopy KW - Bi2Se3 KW - Bi2Te3 KW - quasiparticle interactions KW - circular dichroism KW - spin-orbit coupling KW - time reversal symmetry KW - surface states KW - Spinpolarisation KW - Zirkulardichroismus KW - topologische Isolatoren KW - Oberflächenzustände KW - winkelaufgelöste Photoelektronenspektroskopie KW - spinaufgelöste Photoelektronenspektroskopie KW - Magnetismus KW - Bi2Te3 KW - Bi2Se3 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96686 ER - TY - THES A1 - Vu, Thi Thanh Van T1 - Local government on the way to good governance T1 - Lokale Regierung auf dem Weg zu Good Governance BT - the case of Hanoi and Berlin BT - Fallstudie in Berlin und Hanoi N2 - Bad governance causes economic, social, developmental and environmental problems in many developing countries. Developing countries have adopted a number of reforms that have assisted in achieving good governance. The success of governance reform depends on the starting point of each country – what institutional arrangements exist at the out-set and who the people implementing reforms within the existing institutional framework are. This dissertation focuses on how formal institutions (laws and regulations) and informal institutions (culture, habit and conception) impact on good governance. Three characteristics central to good governance - transparency, participation and accountability are studied in the research. A number of key findings were: Good governance in Hanoi and Berlin represent the two extremes of the scale, while governance in Berlin is almost at the top of the scale, governance in Hanoi is at the bottom. Good governance in Hanoi is still far from achieved. In Berlin, information about public policies, administrative services and public finance is available, reliable and understandable. People do not encounter any problems accessing public information. In Hanoi, however, public information is not easy to access. There are big differences between Hanoi and Berlin in the three forms of participation. While voting in Hanoi to elect local deputies is formal and forced, elections in Berlin are fair and free. The candidates in local elections in Berlin come from different parties, whereas the candidacy of local deputies in Hanoi is thoroughly controlled by the Fatherland Front. Even though the turnout of voters in local deputy elections is close to 90 percent in Hanoi, the legitimacy of both the elections and the process of representation is non-existent because the local deputy candidates are decided by the Communist Party. The involvement of people in solving local problems is encouraged by the government in Berlin. The different initiatives include citizenry budget, citizen activity, citizen initiatives, etc. Individual citizens are free to participate either individually or through an association. Lacking transparency and participation, the quality of public service in Hanoi is poor. Citizens seldom get their services on time as required by the regulations. Citizens who want to receive public services can bribe officials directly, use the power of relationships, or pay a third person – the mediator ("Cò" - in Vietnamese). In contrast, public service delivery in Berlin follows the customer-orientated principle. The quality of service is high in relation to time and cost. Paying speed money, bribery and using relationships to gain preferential public service do not exist in Berlin. Using the examples of Berlin and Hanoi, it is clear to see how transparency, participation and accountability are interconnected and influence each other. Without a free and fair election as well as participation of non-governmental organisations, civil organisations, and the media in political decision-making and public actions, it is hard to hold the Hanoi local government accountable. The key differences in formal institutions (regulative and cognitive) between Berlin and Hanoi reflect the three main principles: rule of law vs. rule by law, pluralism vs. monopoly Party in politics and social market economy vs. market economy with socialist orientation. In Berlin the logic of appropriateness and codes of conduct are respect for laws, respect of individual freedom and ideas and awareness of community development. People in Berlin take for granted that public services are delivered to them fairly. Ideas such as using money or relationships to shorten public administrative procedures do not exist in the mind of either public officials or citizens. In Hanoi, under a weak formal framework of good governance, new values and norms (prosperity, achievement) generated in the economic transition interact with the habits of the centrally-planned economy (lying, dependence, passivity) and traditional values (hierarchy, harmony, family, collectivism) influence behaviours of those involved. In Hanoi “doing the right thing” such as compliance with law doesn’t become “the way it is”. The unintended consequence of the deliberate reform actions of the Party is the prevalence of corruption. The socialist orientation seems not to have been achieved as the gap between the rich and the poor has widened. Good governance is not achievable if citizens and officials are concerned only with their self-interest. State and society depend on each other. Theoretically to achieve good governance in Hanoi, institutions (formal and informal) able to create good citizens, officials and deputies should be generated. Good citizens are good by habit rather than by nature. The rule of law principle is necessary for the professional performance of local administrations and People’s Councils. When the rule of law is applied consistently, the room for informal institutions to function will be reduced. Promoting good governance in Hanoi is dependent on the need and desire to change the government and people themselves. Good governance in Berlin can be seen to be the result of the efforts of the local government and citizens after a long period of development and continuous adjustment. Institutional transformation is always a long and complicated process because the change in formal regulations as well as in the way they are implemented may meet strong resistance from the established practice. This study has attempted to point out the weaknesses of the institutions of Hanoi and has identified factors affecting future development towards good governance. But it is not easy to determine how long it will take to change the institutional setting of Hanoi in order to achieve good governance. N2 - Bad governance (schlechte Regierungsführung) verursacht neben wirtschaftlichen und sozialen Schäden auch Umwelt- und Entwicklungsprobleme in vielen Entwicklungsländern. Entwicklungsländer haben zahlreiche Reformen in Angriff genommen, welche sie in der Entwicklung von good governance (gute Regierungsführung) unterstützen sollen. Der Erfolg solcher Reformen staatlicher Steuerungs- und Regelsysteme hängt jedoch maßgeblich von der Ausgangssituation in den einzelnen Ländern ab. Einfluss auf den Erfolg haben Faktoren wie z. B. die existierende institutionelle Ordnung, auf die zu Beginn solcher Reformen zurückgegriffen werden kann. Auch der verantwortliche Personenkreis, der mit der Umsetzung der Reformen beauftragt wird, ist für deren Erfolg maßgeblich. Diese Dissertation befasst sich damit, wie sich formelle Institutionen (Gesetze und Regeln) sowie informelle Institutionen (Kultur, Gewohnheit und Wahrnehmung) auf good governance auswirken können. Im Rahmen dieser Forschungsarbeit werden drei Merkmale mit besonderem Bezug zu good governance untersucht: Transparenz, Partizipation und Rechenschaftspflicht. Folgende Untersuchungsergebnisse sind hervorzuheben: In Bezug auf good governance stellen Berlin und Hanoi zwei Extreme dar. Während Berlin auf einer „good-governance-Skala“ im positiven oberen Bereich anzusiedeln wäre, müsste sich Hanoi eher im unteren Bereich wiederfinden. Good governance im Sinne von verantwortungsvoller Regierungsführung ist in Hanoi bei weitem noch nicht erreicht. So sind in Berlin Informationen sowohl über die Ziele und die Entscheidungen der am Politikprozess beteiligten Akteure und über Dienstleistungen der Verwaltung als auch über die öffentlichen Finanzen allgemein abrufbar, verlässlich und verständlich. Dies ist nicht der Fall in Hanoi. Während in Berlin die BürgerInnen keine Schwierigkeiten im Zugang zu öffentlichen Informationen haben, so sind diese Informationen in Hanoi nicht oder nur schwer erhältlich. Weiterhin gibt es zwischen Hanoi und Berlin erhebliche Unterschiede in den drei Arten der Partizipation. Während die Wahlen kommunaler Vertreter in Hanoi rein formell und erzwungen sind, so sind Wahlen in Berlin gleich, geheim und frei. Bei den Berliner Kommunalwahlen entstammen die VertreterInnen den unterschiedlichen Parteien und Wählervereinigungen, während die Kandidatur der KommunalvertreterInnen in Hanoi weitgehend durch die Volksfront bestimmt wird. Obwohl die Wahlbeteiligung bei den lokalen Wahlen in Hanoi bei fast 90% liegt, so ist die Legitimität sowohl der Wahlen selbst als auch des Vertretungsprozesses so gut wie nicht vorhanden. Die zu wählenden VolksvertreterInnen werden ausschließlich durch die Kommunistische Partei bestimmt. In Berlin wird die Teilhabe der BürgerInnen bei der Lösung kommunaler Probleme durch die Regierung gefördert. Hierzu werden unterschiedliche Methoden genutzt, u. a. der Bürgerhaushalt, Bürgerportale, Bürgerinitiativen etc. Einzelne BürgerInnen können entscheiden, ob sie sich individuell oder auch kollektiv einbringen. Durch das Fehlen von Transparenz und bürgerlicher Teilhabe ist die Qualität öffentlicher Dienstleistungen in Hanoi gering. So werden Dienstleistungen selten innerhalb der Fristerbracht, die gesetzlich vorgegeben ist. BürgerInnen, die dennoch öffentliche Dienstleistungen in Anspruch nehmen und zeitnah erhalten wollen, können die verantwortlichen Beamten direkt bestechen, ihre persönlichen Beziehungen nutzen oder eine dritte Person gegen Bezahlung beauftragen – einen „Mediator“ (Vietnamesisch: „Cò“). Im Gegensatz hierzu werden Dienstleistungen in Berlin kundenorientiert erbracht. Die Qualität der Dienstleistungen ist in Bezug auf Zeit und Kosten hochwertig. Schmiergeldzahlungen, Bestechung sowie das Nutzen persönlicher Beziehungen im Austausch für „bessere“ öffentliche Dienstleistungen sind in Berlin unüblich. Die Analyse der Fallstudien in Berlin und Hanoi verdeutlichen, wie Transparenz, bürgerliche Teilhabe sowie Rechenschaftspflicht miteinander verflochten sind und sich gegenseitig beeinflussen. Es ist schwierig die Kommunalverwaltung in Hanoi zur Rechenschaft zu ziehen. Hierzu fehlt es an geeigneten Instrumenten, wie z.B. freie und gleiche Wahlen. Es fehlt ebenfalls die Beteiligung von Akteuren wie freien Medien, Nichtregierungsorganisationen und zivilgesellschaftlichen Organisationen. Der wesentliche Unterschied formeller regulativer und kognitiver Institutionen zwischen Berlin und Hanoi wird anhand von drei Prinzipien dargestellt: Rechtsstaatlichkeit (Rule of Law) vs. Herrschaft durch Recht (rule by law), Pluralismus vs. Einheitspartei innerhalb der Politik sowie Marktwirtschaft vs. Marktwirtschaft sozialistischer Prägung. In Berlin gelten Verhaltensnormen, welche das Gesetz und die individuelle Freiheit respektieren. Ebenso herrscht das Bewusstsein vor, die Gemeinschaft zu fördern. EinwohnerInnen Berlins erachten es als selbstverständlich, dass sie öffentliche Dienstleistungen gerecht in Anspruch nehmen können. Die Vorstellung, Geld oder Beziehungen auf unrechtmäßige Art zu nutzen, um Verwaltungsvorgänge abzukürzen, herrschen weder bei Verwaltung noch bei den BürgerInnen vor. Innerhalb eines schwachen formellen Rahmens von good governance in Hanoi interagieren neue Werte und Normen einer Volkswirtschaft im Umbruch (Wohlstand, Erfolg) mit denen einer Planwirtschaft (Lügen, Abhängigkeit, Passivität) sowie mit denen traditioneller Gesellschaften (Hierarchie, Harmonie, Familie, Kollektivismus) und beeinflussen die Handlungen der Akteure. In Hanoi wird es nicht als selbstverständlich angesehen, das zu tun, was in Berlin als „das Richtige“ angesehen würde, z. B. Gesetze einzuhalten. Unbeabsichtigte Konsequenzen willkürlicher Reformaktivitäten der Partei zeigen sich im Fortbestehen von Korruption. Die sozialistische Orientierung der Marktwirtschaft scheint nicht erreicht worden zu sein, da sich die Schere zwischen Reich und Arm geweitet hat. Good governance ist unerreichbar, wenn BürgerInnen, Verwaltung und PolitikerInnen hauptsächlich von Eigeninteressen gelenkt werden. Der Staat und die Gesellschaft hängen voneinander ab. Um theoretisch good governance in Hanoi zu erreichen, müssten (formelle und informelle) Institutionen geschaffen werden, die positiven Einfluss auf BürgerInnen, Verwaltung und VolksvertreterInnen haben. BürgerInnen sind „gut“ aufgrund von Lernprozessen und Gewöhnung und nicht aufgrund ihrer Natur. Das Rechtstaatlichkeitsprinzip ist notwendig, um die Leistungsbereitschaft lokaler Verwaltungen sowie der Volksvertretungen zu stärken. Sobald Rechtstaatlichkeit konsequente Anwendung findet, verringert sich auch der Raum, in dem informelle Institutionen angewendet werden können. Die Förderung von good governance in Hanoi hängt im Wesentlichen vom Verlangen ab, die Regierung und die Menschen zu verändern. Good governance in Berlin sollte als Ergebnis eines andauernden Prozesses von Entwicklung und Änderung von Lokalregierung und BürgerInnen angesehen werden. Institutionelle Transformation ist ein langwieriger und komplizierter Prozess. Veränderungen formeller Regelungen sowie die Art der Implementierung solch neuer Regelungen trifft möglicherweise auf starken Widerstand seitens etablierter Akteure mit ihren Gewohnheiten. In dieser Studie wurde gezeigt, welches die Schwachpunkte der Institutionen in Hanoi sind. Ebenso wurden jene Faktoren identifiziert, welche die zukünftige Entwicklung in Richtung von good governance beeinflussen können. Es ist jedoch schwierig einzuschätzen, wie lange es dauern wird, das institutionelle Gefüge in Hanoi hin zu verantwortungsvoller Regierungsführung zu ändern. KW - local governance KW - Hanoi KW - Berlin KW - good governance KW - gute Regierungsführung KW - schlechte Regierungsführung KW - Hanoi KW - Berlin KW - Transparenz KW - Partizipation KW - Rechenschaftspflicht KW - Rechtsstaatlichkeit KW - Korruption KW - neuer Institutionalismus KW - Kultur KW - Institution KW - kulturell-kognitive Institution KW - regulative Institution KW - formale Institution KW - informelle Institution KW - Teilhabe der BürgerInnen KW - sozialistische Orientierung der Marktwirtschaft Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93943 ER - TY - THES A1 - Schad, Daniel T1 - Mindless reading and eye movements : theory, experiments and computational modeling T1 - Gedankenverlorenes Lesen und Blickbewegungen : Theorie, Experimente, und Computationale Modellierung N2 - It sometimes happens that we finish reading a passage of text just to realize that we have no idea what we just read. During these episodes of mindless reading our mind is elsewhere yet the eyes still move across the text. The phenomenon of mindless reading is common and seems to be widely recognized in lay psychology. However, the scientific investigation of mindless reading has long been underdeveloped. Recent progress in research on mindless reading has been based on self-report measures and on treating it as an all-or-none phenomenon (dichotomy-hypothesis). Here, we introduce the levels-of-inattention hypothesis proposing that mindless reading is graded and occurs at different levels of cognitive processing. Moreover, we introduce two new behavioral paradigms to study mindless reading at different levels in the eye-tracking laboratory. First (Chapter 2), we introduce shuffled text reading as a paradigm to approximate states of weak mindless reading experimentally and compare it to reading of normal text. Results from statistical analyses of eye movements that subjects perform in this task qualitatively support the ‘mindless’ hypothesis that cognitive influences on eye movements are reduced and the ‘foveal load’ hypothesis that the response of the zoom lens of attention to local text difficulty is enhanced when reading shuffled text. We introduce and validate an advanced version of the SWIFT model (SWIFT 3) incorporating the zoom lens of attention (Chapter 3) and use it to explain eye movements during shuffled text reading. Simulations of the SWIFT 3 model provide fully quantitative support for the ‘mindless’ and the ‘foveal load’ hypothesis. They moreover demonstrate that the zoom lens is an important concept to explain eye movements across reading and mindless reading tasks. Second (Chapter 4), we introduce the sustained attention to stimulus task (SAST) to catch episodes when external attention spontaneously lapses (i.e., attentional decoupling or mind wandering) via the overlooking of errors in the text and via signal detection analyses of error detection. Analyses of eye movements in the SAST revealed reduced influences from cognitive text processing during mindless reading. Based on these findings, we demonstrate that it is possible to predict states of mindless reading from eye movement recordings online. That cognition is not always needed to move the eyes supports autonomous mechanisms for saccade initiation. Results from analyses of error detection and eye movements provide support to our levels-of-inattention hypothesis that errors at different levels of the text assess different levels of decoupling. Analyses of pupil size in the SAST (Chapter 5) provide further support to the levels of inattention hypothesis and to the decoupling hypothesis that off-line thought is a distinct mode of cognitive functioning that demands cognitive resources and is associated with deep levels of decoupling. The present work demonstrates that the elusive phenomenon of mindless reading can be vigorously investigated in the cognitive laboratory and further incorporated in the theoretical framework of cognitive science. N2 - Beim Lesen passiert es manchmal dass wir zum Ende einer Textpassage gelangen und dabei plötzlich bemerken dass wir keinerlei Erinnerung daran haben was wir soeben gelesen haben. In solchen Momenten von gedankenverlorenem Lesen ist unser Geist abwesend, aber die Augen bewegen sich dennoch über den Text. Das Phänomen des gedankenverlorenen Lesens ist weit verbreitet und scheint in der Laienpsychologie allgemein anerkannt zu sein. Die wissenschaftliche Untersuchung von gedankenverlorenem Lesen war jedoch lange Zeit unzureichend entwickelt. Neuerer Forschungsfortschritt basierte darauf gedankenverlorenes Lesen durch Selbstberichte zu untersuchen und als ein Phänomen zu behandeln das entweder ganz oder gar nicht auftritt (Dichotomie-Hypothese). Hier stellen wir die ‚Stufen der Unaufmerksamkeit’-Hypothese auf, dass gedankenverlorenes Lesen ein graduelles Phänomen ist, das auf verschiedenen kognitiven Verarbeitungsstufen entsteht. Wir stellen zudem zwei neue Verhaltensparadigmen vor um verschiedene Stufen von gedankenverlorenem Lesen im Augenbewegungslabor zu untersuchen. Als erstes (in Kapitel 2) stellen wir das Lesen von verwürfeltem Text vor als ein Paradigma um Zustände von schwach gedankenverlorenem Lesen experimentell anzunähern, und vergleichen es mit dem Lesen von normalem Text. Die Ergebnisse von statistischen Augenbewegungsanalysen unterstützen qualitativ die ‚Unaufmerksamkeits’-Hypothese, dass kognitive Einflüsse auf Augenbewegungen beim Lesen von verwürfeltem Text reduziert ist, und die ‚Foveale Beanspruchungs’-Hypothese, dass die Reaktion der zoom lens visueller Aufmerksamkeit auf lokale Textschwierigkeit beim Lesen von verwürfeltem Text verstärkt ist. Wir stellen eine weiterentwickelte Version des SWIFT Modells (SWIFT 3) vor, welches die zoom lens der Aufmerksamkeit implementiert, und validieren dieses Modell am Lesen von verwürfeltem und normalem Text (Kapitel 3). Simulationen des SWIFT 3 Modells unterstützen die ‚Unaufmerksamkeits’ und die ‚Foveal Beanspruchungs’-Hypothese in einem vollständig quantitativen Modell. Zudem zeigen sie, dass die zoom lens der Aufmerksamkeit ein wichtiges Konzept ist um Augenbewegungen in Aufgaben zum Lesen und gedankenverlorenen Lesen zu erklären. Als zweites (Kapitel 4) stellen wir den sustained attention to stimulus task (SAST) vor um Episoden von spontaner externer Unaufmerksamkeit (also Entkopplung der Aufmerksamkeit oder Abschweifen der Gedanken) in einem Paradigma über Verhaltensparameter wie das Übersehen von Fehlern im Text und Signal-Detektions-Analysen von Fehlerentdeckung zu messen. Augenbewegungsanalysen im SAST decken abgeschwächte Einflüsse von kognitiver Textverarbeitung während gedankenverlorenem Lesen auf. Basierend auf diesen Befunden zeigen wir, dass es möglich ist Zustände von gedankenverlorenem Lesen online, also während dem Lesen, aus Augenbewegungen vorherzusagen bzw. abzulesen. Dass höhere Kognition nicht immer notwendig ist um die Augen zu bewegen unterstützt zudem autonome Mechanismen der Sakkadeninitiierung. Ergebnisse aus Analysen von Fehlerdetektion und Augenbewegungen unterstützen unsere ‚Stufen der Unaufmerksamkeit’-Hypothese, dass Fehler auf verschiedenen Textebenen verschiedene Stufen von Entkopplung messen. Analysen der Pupillengröße im SAST (Kapitel 5) bieten weitere Unterstützung für die ‚Stufen der Unaufmerksamkeit’-Hypothese, sowie für die Entkopplungs-Hypothese, dass abschweifende Gedanken eine abgegrenzte kognitiver Funktionsweise darstellen, welche kognitive Ressourcen benötigt und mit tiefen Stufen von Unaufmerksamkeit zusammenhängt. Die aktuelle Arbeit zeigt, dass das flüchtige Phänomen des gedankenverlorenen Lesens im kognitiven Labor mit strengen Methoden untersucht und weitergehend in den theoretischen Rahmen der Kognitionswissenschaft eingefügt werden kann. KW - Gedankenverlorenes Lesen KW - Blickbewegungen KW - Gedankenschweifen KW - Computationale Modellierung KW - Levels-of-inattention Hypothese KW - mindless reading KW - eye movements KW - mind wandering KW - computational modeling KW - levels-of-inattention hypothesis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70822 ER - TY - THES A1 - Trukenbrod, Hans Arne T1 - Temporal and spatial aspects of eye-movement control : from reading to scanning T1 - Zeitliche und räumliche Aspekte der Blicksteuerung : vom Lesen zum Scannen N2 - Eye movements are a powerful tool to examine cognitive processes. However, in most paradigms little is known about the dynamics present in sequences of saccades and fixations. In particular, the control of fixation durations has been widely neglected in most tasks. As a notable exception, both spatial and temporal aspects of eye-movement control have been thoroughly investigated during reading. There, the scientific discourse was dominated by three controversies, (i), the role of oculomotor vs. cognitive processing on eye-movement control, (ii) the serial vs. parallel processing of words, and, (iii), the control of fixation durations. The main purpose of this thesis was to investigate eye movements in tasks that require sequences of fixations and saccades. While reading phenomena served as a starting point, we examined eye guidance in non-reading tasks with the aim to identify general principles of eye-movement control. In addition, the investigation of eye movements in non-reading tasks helped refine our knowledge about eye-movement control during reading. Our approach included the investigation of eye movements in non-reading experiments as well as the evaluation and development of computational models. I present three main results : First, oculomotor phenomena during reading can also be observed in non-reading tasks (Chapter 2 & 4). Oculomotor processes determine the fixation position within an object. The fixation position, in turn, modulates both the next saccade target and the current fixation duration. Second, predicitions of eye-movement models based on sequential attention shifts were falsified (Chapter 3). In fact, our results suggest that distributed processing of multiple objects forms the basis of eye-movement control. Third, fixation durations are under asymmetric control (Chapter 4). While increasing processing demands immediately prolong fixation durations, decreasing processing demands reduce fixation durations only with a temporal delay. We propose a computational model ICAT to account for asymmetric control. In this model, an autonomous timer initiates saccades after random time intervals independent of ongoing processing. However, processing demands that are higher than expected inhibit the execution of the next saccade and, thereby, prolong the current fixation. On the other hand, lower processing demands will not affect the duration before the next saccade is executed. Since the autonomous timer adjusts to expected processing demands from fixation to fixation, a decrease in processing demands may lead to a temporally delayed reduction of fixation durations. In an extended version of ICAT, we evaluated its performance while simulating both temporal and spatial aspects of eye-movement control. The eye-movement phenomena investigated in this thesis have now been observed in a number of different tasks, which suggests that they represent general principles of eye guidance. I propose that distributed processing of the visual input forms the basis of eye-movement control, while fixation durations are controlled by the principles outlined in ICAT. In addition, oculomotor control contributes considerably to the variability observed in eye movements. Interpretations for the relation between eye movements and cognition strongly benefit from a precise understanding of this interplay. N2 - Blickbewegungen stellen ein wichtiges Instrument dar, um kognitive Prozesse zu untersuchen. In den meisten Paradigmen ist allerdings wenig über die Entstehung von Sakkaden und Fixationen bekannt. Insbesondere die Kontrolle der Fixationsdauern wurde häufig außer acht gelassen. Eine wesentliche Ausnahme stellt die Leseforschung dar, in der sowohl zeitlichliche als auch räumliche Aspekte der Blickbewegungssteuerung im Detail betrachtet wurden. Dabei war der wissenschaftliche Diskurs durch drei Kontroversen gekennzeichnet, die untersuchten, (i), welchen Einfluss okulomotorische bzw. kognitive Prozesse auf die Blicksteuerung haben, (ii), ob Worte seriell oder parallel verarbeitet werden und, (iii), wie Fixationsdauern kontrolliert werden. Die vorliegende Arbeit zielt im wesentlichen darauf ab, die Dynamik von Fixationssequenzen zu erforschen. Ausgehend von den Erkenntnissen beim Lesen untersuchten wir Blickbewegungen in Nichtlese-Aufgaben, mit dem Ziel allgemeine Prinzipien der Blicksteuerung zu identifizieren. Zusätzlich versuchten wir mit Hilfe dieser Aufgaben, Erkenntnisse über Prozesse beim Lesen zu vertiefen. Unser Vorgehen war sowohl von der Durchführung von Experimenten als auch der Entwicklung und Evaluation computationaler Modelle geprägt. Die Hauptbefunde zeigten: Erstens, okulomotorische Phänomene des Lesens lassen sich in Suchaufgaben ohne Wortmaterial replizieren (Kapitel 2 & 4). Dabei bestimmen okulomotorische Prozesse die Fixationsposition innerhalb eines Objektes. Diese wiederum beeinflusst das nächste Sakkadenziel sowie die Fixationsdauer. Zweitens, wesentliche Vorhersagen von Modellen, in denen Blickbewegungen von seriellen Aufmerksamkeitsverschiebungen abhängen, konnten falsifiziert werden (Kapitel 3). Stattdessen legen unsere Erkenntnisse nahe, dass die Blicksteuerung von der parallelen Verarbeitung mehrerer Objekte abhängt. Drittens, Fixationsdauern werden asymmetrisch kontrolliert (Kapitel 4). Während hohe Verarbeitungsanforderungen Fixationsdauern unmittelbar verlängern können, führen niedrige Verarbeitungsanforderungen nur zeitlich verzögert zu einer Reduktion. Wir schlagen ein computationales Modell ICAT vor, um asymmetrische Kontrolle zu erklären. Grundlage des Modells ist ein autonomer Zeitgeber, der unabhängig von der momentanen Verarbeitung nach zufälligen Zeitintervallen Sakkaden initiiert. Unerwartet hohe Verarbeitungsanforderungen können die Initiierung der nächsten Sakkade hinauszögern, während unerwartet niedrige Verarbeitungsanforderungen den Beginn der nächsten Sakkade nicht verändern. Der Zeitgeber passt sich allerdings von Fixation zu Fixation neuen Verarbeitungsanforderungen an, so dass es zu einer zeitlich verzögerten Reduktion der Fixationsdauern kommen kann. In einer erweiterten Version des Modells überprüfen wir die Kompatibilität ICATs mit einer realistischen räumlichen Blicksteuerung. Die Ähnlichkeit von Blickbewegungsphänomenen über Aufgaben hinweg legt nahe, dass sie auf allgemeinen Prinzipien basieren. Grundlage der Blicksteuerung ist die verteilte Verarbeitung des visuellen Inputs, während die Kontrolle der Fixationsdauer auf den Prinzipien von ICAT beruht. Darüber hinaus tragen okulomotorische Phänomene wesentlich zur Variabilität der Blicksteuerung bei. Ein Verständnis dieses Zusammenspiels hilft entscheidend den Zusammenhang von Blickbewegungen und Kognitionen besser zu verstehen. KW - Blickbewegungen KW - Fixationssequenzen KW - Computationale Modellierung KW - Fixationdauern KW - Fixationspositionen KW - Eye movements KW - fixation sequences KW - computational modeling KW - fixation durations KW - fixation positions Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70206 ER - TY - THES A1 - Swierczynski, Tina T1 - A 7000 yr runoff chronology from varved sediments of Lake Mondsee (Upper Austria) T1 - Eine 7000-jährige Abflusschronologie anhand von warvierten Sedimenten des Mondsees (Oberösterreich) N2 - The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER - TY - THES A1 - Sawade, Christoph T1 - Active evaluation of predictive models T1 - Aktive Evaluierung von Vorhersagemodellen N2 - The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert. This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution. We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains. Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs. N2 - Maschinelles Lernen befasst sich mit Algorithmen zur Inferenz von Vorhersagemodelle aus komplexen Daten. Vorhersagemodelle sind Funktionen, die einer Eingabe – wie zum Beispiel dem Text einer E-Mail – ein anwendungsspezifisches Zielattribut – wie „Spam“ oder „Nicht-Spam“ – zuweisen. Sie finden Anwendung beim Filtern von Spam-Nachrichten, bei der Text- und Gesichtserkennung oder auch bei der personalisierten Empfehlung von Produkten. Um ein Modell in der Praxis einzusetzen, ist es notwendig, die Vorhersagequalität bezüglich der zukünftigen Anwendung zu schätzen. Für diese Evaluierung werden Instanzen des Eingaberaums benötigt, für die das zugehörige Zielattribut bekannt ist. Instanzen, wie E-Mails, Bilder oder das protokollierte Nutzerverhalten von Kunden, stehen häufig in großem Umfang zur Verfügung. Die Bestimmung der zugehörigen Zielattribute ist jedoch ein manueller Prozess, der kosten- und zeitaufwendig sein kann und mitunter spezielles Fachwissen erfordert. Ziel dieser Arbeit ist die genaue Schätzung der Vorhersagequalität eines gegebenen Modells mit einer minimalen Anzahl von Testinstanzen. Wir untersuchen aktive Evaluierungsprozesse, die mit Hilfe einer Wahrscheinlichkeitsverteilung Instanzen auswählen, für die das Zielattribut bestimmt wird. Die Vorhersagequalität kann anhand verschiedener Kriterien, wie der Fehlerrate, des mittleren quadratischen Verlusts oder des F-measures, bemessen werden. Wir leiten die Wahrscheinlichkeitsverteilungen her, die den Schätzfehler bezüglich eines gegebenen Maßes minimieren. Der verbleibende Schätzfehler lässt sich anhand von Konfidenzintervallen quantifizieren, die sich aus der Verteilung des Schätzers ergeben. In vielen Anwendungen bestimmen individuelle Eigenschaften der Instanzen die Kosten, die für die Bestimmung des Zielattributs anfallen. So unterscheiden sich Dokumente beispielsweise in der Textlänge und dem technischen Anspruch. Diese Eigenschaften beeinflussen die Zeit, die benötigt wird, mögliche Zielattribute wie das Thema oder die Relevanz zuzuweisen. Wir leiten unter Beachtung dieser instanzspezifischen Unterschiede die optimale Verteilung her. Die entwickelten Evaluierungsmethoden werden auf verschiedenen Datensätzen untersucht. Wir analysieren in diesem Zusammenhang Bedingungen, unter denen die aktive Evaluierung genauere Schätzungen liefert als der Standardansatz, bei dem Instanzen zufällig aus der Testverteilung gezogen werden. Eine verwandte Problemstellung ist der Vergleich von zwei Modellen. Um festzustellen, welches Modell in der Praxis eine höhere Vorhersagequalität aufweist, wird eine Menge von Testinstanzen ausgewählt und das zugehörige Zielattribut bestimmt. Ein anschließender statistischer Test erlaubt Aussagen über die Signifikanz der beobachteten Unterschiede. Die Teststärke hängt von der Verteilung ab, nach der die Instanzen ausgewählt wurden. Wir bestimmen die Verteilung, die die Teststärke maximiert und damit die Wahrscheinlichkeit minimiert, sich für das schlechtere Modell zu entscheiden. Des Weiteren geben wir eine Möglichkeit an, den entwickelten Ansatz für den Vergleich von mehreren Modellen zu verwenden. Wir zeigen empirisch, dass die aktive Evaluierungsmethode im Vergleich zur zufälligen Auswahl von Testinstanzen in vielen Anwendungen eine höhere Teststärke aufweist. Im letzten Teil der Arbeit werden das Konzept der aktiven Evaluierung und das des aktiven Modellvergleichs auf Rankingprobleme angewendet. Wir leiten die optimalen Verteilungen für das Schätzen der Qualitätsmaße Discounted Cumulative Gain und Expected Reciprocal Rank her. Eine empirische Studie zur Evaluierung von Suchmaschinen zeigt, dass die neu entwickelten Verfahren signifikant genauere Schätzungen der Rankingqualität liefern als die untersuchten Referenzverfahren. KW - Aktive Evaluierung KW - Vorhersagemodelle KW - Maschinelles Lernen KW - Fehlerschätzung KW - Statistische Tests KW - Active Evaluation KW - Predictive Models KW - Machine Learning KW - Error Estimation KW - Statistical Tests Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65583 SN - 978-3-86956-255-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Axtner, Jan T1 - Immune gene expression and diversity in relation to gastrointestinal parasite burden in small mammals T1 - Immungenexpression und –diversität in Relation zur gastrointestinalen Parasitenbelastung bei Kleinsäugern N2 - MHC genes encode proteins that are responsible for the recognition of foreign antigens and the triggering of a subsequent, adequate immune response of the organism. Thus they hold a key position in the immune system of vertebrates. It is believed that the extraordinary genetic diversity of MHC genes is shaped by adaptive selectional processes in response to the reoccurring adaptations of parasites and pathogens. A large number of MHC studies were performed in a wide range of wildlife species aiming to understand the role of immune gene diversity in parasite resistance under natural selection conditions. Methodically, most of this work with very few exceptions has focussed only upon the structural, i.e. sequence diversity of regions responsible for antigen binding and presentation. Most of these studies found evidence that MHC gene variation did indeed underlie adaptive processes and that an individual’s allelic diversity explains parasite and pathogen resistance to a large extent. Nevertheless, our understanding of the effective mechanisms is incomplete. A neglected, but potentially highly relevant component concerns the transcriptional differences of MHC alleles. Indeed, differences in the expression levels MHC alleles and their potential functional importance have remained unstudied. The idea that also transcriptional differences might play an important role relies on the fact that lower MHC gene expression is tantamount with reduced induction of CD4+ T helper cells and thus with a reduced immune response. Hence, I studied the expression of MHC genes and of immune regulative cytokines as additional factors to reveal the functional importance of MHC diversity in two free-ranging rodent species (Delomys sublineatus, Apodemus flavicollis) in association with their gastrointestinal helminths under natural selection conditions. I established the method of relative quantification of mRNA on liver and spleen samples of both species in our laboratory. As there was no available information on nucleic sequences of potential reference genes in both species, PCR primer systems that were established in laboratory mice have to be tested and adapted for both non-model organisms. In the due course, sets of stable reference genes for both species were found and thus the preconditions for reliable measurements of mRNA levels established. For D. sublineatus it could be demonstrated that helminth infection elicits aspects of a typical Th2 immune response. Whereas mRNA levels of the cytokine interleukin Il4 increased with infection intensity by strongyle nematodes neither MHC nor cytokine expression played a significant role in D. sublineatus. For A. flavicollis I found a negative association between the parasitic nematode Heligmosomoides polygyrus and hepatic MHC mRNA levels. As a lower MHC expression entails a lower immune response, this could be evidence for an immune evasive strategy of the nematode, as it has been suggested for many micro-parasites. This implies that H. polygyrus is capable to interfere actively with the MHC transcription. Indeed, this parasite species has long been suspected to be immunosuppressive, e.g. by induction of regulatory T-helper cells that respond with a higher interleukin Il10 and tumor necrosis factor Tgfb production. Both cytokines in turn cause an abated MHC expression. By disabling recognition by the MHC molecule H. polygyrus might be able to prevent an activation of the immune system. Indeed, I found a strong tendency in animals carrying the allele Apfl-DRB*23 to have an increased infection intensity with H. polygyrus. Furthermore, I found positive and negative associations between specific MHC alleles and other helminth species, as well as typical signs of positive selection acting on the nucleic sequences of the MHC. The latter was evident by an elevated rate of non-synonymous to synonymous substitutions in the MHC sequences of exon 2 encoding the functionally important antigen binding sites whereas the first and third exons of the MHC DRB gene were highly conserved. In conclusion, the studies in this thesis demonstrate that valid procedures to quantify expression of immune relevant genes are also feasible in non-model wildlife organisms. In addition to structural MHC diversity, also MHC gene expression should be considered to obtain a more complete picture on host-pathogen coevolutionary selection processes. This is especially true if parasites are able to interfere with systemic MHC expression. In this case advantageous or disadvantageous effects of allelic binding motifs are abated. The studies could not define the role of MHC gene expression in antagonistic coevolution as such but the results suggest that it depends strongly on the specific parasite species that is involved. N2 - Die Hauptaufgabe von MHC-kodierten Proteinen ist die Erkennung von körperfremden Molekülen sowie das Einleiten einer adäquaten Immunantwort, womit sie eine Schlüsselrolle im Immunsystem der Wirbeltiere einnehmen. Man nimmt an, dass ihre außergewöhnliche Vielfalt eine Antwort auf die sich ständig anpassenden Parasiten und Krankheitserreger ist, durch adaptive Selektion erhalten wird und dass die individuelle Allelausstattung einen Großteil der Parasitenbelastung erklärt, wofür bereits zahlreiche MHC-Studien Hinweise gefunden haben. Trotzdem ist unser Verständnis über die wirkenden Mechanismen teilweise noch lückenhaft. Ein stark vernachlässigter Aspekt hierbei sind z.B. eventuelle Unterschiede in der Genexpression der MHC-Allele und eine geringere Expression wäre gleichbedeutend mit einer geringeren Aktivierung des Immunsystems. Ich habe hierzu zwei frei lebende Kleinsäugerarten (Delomys sublineatus, Apodemus flavicollis) unter natürlichen Selektionsbedingungen untersucht. Dabei habe ich neben der genotypischen Diversität von MHC-Genen auch deren Expression, sowie die Genexpression immunregulativer Zytokine mit in Betracht gezogen und in Relation zur individuellen Belastung mit gastrointestinalen Helminthen gesetzt. Anhand von Leber und Milzproben beider Arten habe ich die Methode der ‚real-time PCR‘ zur relativen Quantifizierung von mRNA im Labor etabliert. Bereits für die Labormaus etablierte PCR-Primersysteme wurden an beiden Arten getestet und so konnten stabile Referenzgene gefunden werden, die Grundvoraussetzung für zuverlässige Genexpressionsmessungen. Für D. sublineatus konnte gezeigt werden, dass Helminthenbefall eine typische Th2 Immunantwort induziert, und dass der Zytokin Il4 Gehalt mit Befallsintensität strongyler Nematoden zunimmt. Es wurde für D. sublineatus kein signifikanter Zusammenhang zwischen MHC Expression oder anderen Zytokinen mit Helminthenbefall gefunden. In A. flavicollis wurde ein negativer Zusammenhang zwischen haptischer MHC-Expression und dem parasitären Nematoden Heligmosomoides polygyrus festgestellt, was auf eine Immunvermeidungsstrategie des Nematoden hindeutet. Ich fand typische positive und negative Assoziationen zwischen MHC-Allelen und anderen Helminthenarten, sowie Zeichen eines positiven Selektionsdruckes auf den MHC-Sequenzen, was sich durch eine erhöhte Rate aminosäureverändernder Mutationen zeigte. Diese nicht-synonymen Veränderungen waren auf Positionen innerhalb des zweiten Exons des DRB-Genes beschränkt, wohingegen die untersuchten Bereiche des ersten und dritten Exons stark konserviert vorlagen. Diese variablen Positionen kodieren Schlüsselstellen im Bereich der Antigenbindungsstelle im MHC Molekül. Zusammenfassend zeigt diese Arbeit, dass Genexpressionsstudien auch an Wildtieren durchgeführt und verlässliche Daten erzeugt werden können. Zusätzlich zur strukturellen Vielfalt sollten zukünftig auch mögliche Genexpressionsunterschiede bei MHC-Studien berücksichtigt werden, um ein kompletteres Bild der koevolutiven Wirt-Parasiten-Beziehungen zeichnen zu können. Dies ist vor allem dann von evolutiver Bedeutung, wenn die Parasiten in der Lage sind die MHC Expression aktiv zu beeinflussen. Die Studien konnten nicht die exakte Bedeutung von MHC-Genexpression in der antagonistischen Koevolution definieren, aber sie konnten zeigen dass diese Bedeutung stark von den jeweils beteiligten Partnern abzuhängen vermag. KW - Parasit KW - Co-Evolution KW - MHC KW - Apodemus KW - Delomys KW - Parasite KW - Co-Evolution KW - MHC KW - Apodemus KW - Delomys Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65639 ER - TY - THES A1 - Czymzik, Markus T1 - Mid- to Late Holocene flood reconstruction from two varved sediment profiles of pre-alpine Lake Ammersee (Southern Germany) T1 - Mittel- bis Spätholozäne Hochwasserrekonstruktion aus zwei warvierten Sedimentkernen des Ammersees N2 - Climate is the principal driving force of hydrological extremes like floods and attributing generating mechanisms is an essential prerequisite for understanding past, present, and future flood variability. Successively enhanced radiative forcing under global warming enhances atmospheric water-holding capacity and is expected to increase the likelihood of strong floods. In addition, natural climate variability affects the frequency and magnitude of these events on annual to millennial time-scales. Particularly in the mid-latitudes of the Northern Hemisphere, correlations between meteorological variables and hydrological indices suggest significant effects of changing climate boundary conditions on floods. To date, however, understanding of flood responses to changing climate boundary conditions is limited due to the scarcity of hydrological data in space and time. Exploring paleoclimate archives like annually laminated (varved) lake sediments allows to fill this gap in knowledge offering precise dated time-series of flood variability for millennia. During river floods, detrital catchment material is eroded and transported in suspension by fluid turbulence into downstream lakes. In the water body the transport capacity of the inflowing turbidity current successively diminishes leading to the deposition of detrital layers on the lake floor. Intercalated into annual laminations these detrital layers can be dated down to seasonal resolution. Microfacies analyses and X-ray fluorescence scanning (µ-XRF) at 200 µm resolution were conducted on the varved Mid- to Late Holocene interval of two sediment profiles from pre-alpine Lake Ammersee (southern Germany) located in a proximal (AS10prox) and distal (AS10dist) position towards the main tributary River Ammer. To shed light on sediment distribution within the lake, particular emphasis was (1) the detection of intercalated detrital layers and their micro-sedimentological features, and (2) intra-basin correlation of these deposits. Detrital layers were dated down to the season by microscopic varve counting and determination of the microstratigraphic position within a varve. The resulting chronology is verified by accelerator mass spectrometry (AMS) 14C dating of 14 terrestrial plant macrofossils. Since ~5500 varve years before present (vyr BP), in total 1573 detrital layers were detected in either one or both of the investigated sediment profiles. Based on their microfacies, geochemistry, and proximal-distal deposition pattern, detrital layers were interpreted as River Ammer flood deposits. Calibration of the flood layer record using instrumental daily River Ammer runoff data from AD 1926 to 1999 proves the flood layer succession to represent a significant time-series of major River Ammer floods in spring and summer, the flood season in the Ammersee region. Flood layer frequency trends are in agreement with decadal variations of the East Atlantic-Western Russia (EA-WR) atmospheric pattern back to 200 yr BP (end of the used atmospheric data) and solar activity back to 5500 vyr BP. Enhanced flood frequency corresponds to the negative EA-WR phase and reduced solar activity. These common links point to a central role of varying large-scale atmospheric circulation over Europe for flood frequency in the Ammersee region and suggest that these atmospheric variations, in turn, are likely modified by solar variability during the past 5500 years. Furthermore, the flood layer record indicates three shifts in mean layer thickness and frequency of different manifestation in both sediment profiles at ~5500, ~2800, and ~500 vyr BP. Combining information from both sediment profiles enabled to interpret these shifts in terms of stepwise increases in mean flood intensity. Likely triggers of these shifts are gradual reduction of Northern Hemisphere orbital summer forcing and long-term solar activity minima. Hypothesized atmospheric response to this forcing is hemispheric cooling that enhances equator-to-pole temperature gradients and potential energy in the troposphere. This energy is transferred into stronger westerly cyclones, more extreme precipitation, and intensified floods at Lake Ammersee. Interpretation of flood layer frequency and thickness data in combination with reanalysis models and time-series analysis allowed to reconstruct the flood history and to decipher flood triggering climate mechanisms in the Ammersee region throughout the past 5500 years. Flood frequency and intensity are not stationary, but influenced by multi-causal climate forcing of large-scale atmospheric modes on time-scales from years to millennia. These results challenge future projections that propose an increase in floods when Earth warms based only on the assumption of an enhanced hydrological cycle. N2 - Globale Klimamodelle prognostizieren eine Zunahme von Starkhochwassern infolge der Klimaerwärmung. Weiterhin werden natürliche Klimafaktoren die Intensität und Häufigkeit solcher Ereignisse auf Zeitskalen von Jahren bis Jahrtausenden beeinflussen. Für ein umfassendes Verständnis hochwassergenerierender Klimamechanismen müssen daher lange Zeiträume und regionale Muster in Betracht gezogen werden. Aufgrund der Limitierung der meisten instrumentellen Abflusszeitreihen auf die letzten 100 Jahre, bieten diese nur einen sehr begrenzten Einblick in das Spektrum möglicher Klima-Hochwasser Zusammenhänge. Die Nutzung natürlicher Hochwasserarchive, wie warvierter Seesedimente, erlaubt die Untersuchung von Hochwasseraktivität auf Zeitskalen von Jahrtausenden. Durch Hochwasser in einen See eingetragenes detritisches Material bildet, eingeschaltet in den jährlichen Sedimentationszyklus, eine charakteristische Abfolge von Hochwasserlagen auf dem Seeboden. Das Zählen jährlicher Laminierungen und die Position innerhalb eines jährlichen Sedimentationszyklus ermöglichen die Datierung von Hochwasserlagen mit saisonaler Genauigkeit. Der Ammersee bildet ein ideales Archiv zur Rekonstruktion von Hochwassern. Detritisches Material wird durch nur einen Hauptzufluss, die Ammer, in das rinnenförmige Becken transportiert. Die warvierten Sedimente erlauben eine zuverlässige Detektion und Datierung selbst mikroskopischer Hochwasserlagen. An zwei warvierten Sedimentprofilen des Ammersees sind hochauflösende Mikrofazies und Röntgenfluoreszenz (µ-XRF) Analysen durchgeführt worden. Zum besseren Verständnis der Sedimentverteilung im See lag der Fokus der Untersuchungen auf der Detektion detritischer Lagen anhand ihrer sedimentologischen und geochemischen Eigenschaften und der Korrelation dieser Lagen zwischen beiden Sedimentprofilen. Die Datierung der detritschen Lagen erfolgte durch Warvenzählung und wurde durch AMS Radiokarbondatierungen bestätigt. In den Sedimenten der letzten 5500 Jahre wurden 1573 detritische Lagen gefunden. Aufgrund ihrer Eigenschaften lassen sich diese Lagen als Ammerhochwasserlagen interpretieren: (1) Die Mikrofazies deutet auf eine Ablagerung nach Starkabflussereignissen hin. (2) Die geochemische Zusammensetzung beweist die terrestrische Herkunft des Materials. (3) Das proximal-distale Ablagerungsmuster deutet auf die Ammer als Eintragsquelle des Materials hin. Eine Kalibrierung mit instrumentellen Hochwasserdaten der Ammer im Zeitraum von AD 1926 bis 1999 bestätigt die Sukzession der detritischen Lagen als eine Zeitreihe starker Ammerhochwasser im Frühling und Sommer, der Hochwassersaison am Ammersee. Die Häufigkeit der Hochwasserlagen in den letzten 5500 Jahren weist eine deutliche dekadische Variabilität auf. Trends in der Häufigkeit von Hochwasserlagen korrelieren negativ mit dem Index der East Atlantic-Western Russia Oszillation (EA-WR) während der letzten 250 Jahre (Zeitraum der durch die genutzten atmosphärischen Daten abgedeckt ist) und der solaren Aktivität während des kompletten Zeitraums. Diese Übereinstimmungen deuten möglicherweise auf einen solaren Einfluss auf die atmosphärische Zirkulation über Europa und damit auf die Häufigkeit von Hochwassern am Ammersee hin. Weiterhin weist die Zeitreihe der Hochwasserlagen drei Veränderungen der durchschnittlichen Lagenhäufigkeit und -mächtigkeit vor etwa 5500, 2800 und 500 Jahren auf. Die Kombination der Daten beider Sedimentprofile ermöglicht es, diese Veränderungen als schrittweise Anstiege der Hochwasserintensität zu interpretieren. Vermutliche Auslöser sind graduelle Reduktion der solaren Insolation in der Nordhemisphäre und langfristige Minima der solaren Aktivität. Die wahrscheinliche atmosphärische Reaktion auf dieses Klimaforcing ist ein verstärkter Temperaturgradient zwischen den niederen und hohen Breiten, der zu einer Erhöhung der potenziellen Energie in der Atmosphäre und verstärkter Baroklinität führt. Diese Energie wird transferiert in eine Verstärkung der zyklonalen Westwindzirkulation, extremere Niederschläge und eine Intensivierung der Hochwasser am Ammersee. Die Interpretation der Häufigkeit und Mächtigkeit von Hochwasserlagen in den Sedimenten des Ammersees ermöglicht eine Rekonstruktion der Hochwassergeschichte und die Identifizierung hochwasserauslösender Klimafaktoren in der Ammerseeregion während der letzten 5500 Jahre. Hochwasserhäufigkeit und -intensität sind nicht stationär, sondern durch komplexe Veränderungen im Klimasystem auf Zeitskalen von Jahren bis Jahrtausenden geprägt. In diesem Zusammenhang erscheinen die Resultate globaler Klimamodelle, die einen Anstieg des Hochwasserrisikos allein auf Basis eines thermodynamisch intensivierten hydrologischen Kreislaufs infolge der Klimaerwärmung prognostizieren, als stark simplifiziert. KW - paleofloods KW - lake sediments KW - varves KW - climate dynamics Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65098 ER - TY - THES A1 - Di Gesù, Giacomo T1 - Semiclassical spectral analysis of discrete Witten Laplacians T1 - Semiklassische Spektraltheorie von diskreten Witten-Laplace-Operatoren N2 - A discrete analogue of the Witten Laplacian on the n-dimensional integer lattice is considered. After rescaling of the operator and the lattice size we analyze the tunnel effect between different wells, providing sharp asymptotics of the low-lying spectrum. Our proof, inspired by work of B. Helffer, M. Klein and F. Nier in continuous setting, is based on the construction of a discrete Witten complex and a semiclassical analysis of the corresponding discrete Witten Laplacian on 1-forms. The result can be reformulated in terms of metastable Markov processes on the lattice. N2 - In dieser Arbeit wird auf dem n-dimensionalen Gitter der ganzen Zahlen ein Analogon des Witten-Laplace-Operatoren eingeführt. Nach geeigneter Skalierung des Gitters und des Operatoren analysieren wir den Tunneleffekt zwischen verschiedenen Potentialtöpfen und erhalten vollständige Aymptotiken für das tiefliegende Spektrum. Der Beweis (nach Methoden, die von B. Helffer, M. Klein und F. Nier im Falle des kontinuierlichen Witten-Laplace-Operatoren entwickelt wurden) basiert auf der Konstruktion eines diskreten Witten-Komplexes und der Analyse des zugehörigen Witten-Laplace-Operatoren auf 1-Formen. Das Resultat kann im Kontext von metastabilen Markov Prozessen auf dem Gitter reformuliert werden und ermöglicht scharfe Aussagen über metastabile Austrittszeiten. KW - Semiklassische Spektralasymptotik KW - Metastabilität KW - diskreter Witten-Laplace-Operator KW - Eyring-Kramers Formel KW - Tunneleffekt KW - semiclassical spectral asymptotics KW - metastability KW - low-lying eignvalues KW - discrete Witten complex KW - rescaled lattice Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65286 ER - TY - THES A1 - Lohmann, Dirk T1 - Sustainable management of semi-arid African savannas under environmental and political change T1 - Nachhaltige Nutzung semiarider Savannen in Afrika unter dem Einfluss von klimatischem und politischem Wandel N2 - Drylands cover about 40% of the earth’s land surface and provide the basis for the livelihoods of 38% of the global human population. Worldwide, these ecosystems are prone to heavy degradation. Increasing levels of dryland degradation result a strong decline of ecosystem services. In addition, in highly variable semi-arid environments changing future environmental conditions will potentially have severe consequences for productivity and ecosystem dynamics. Hence, global efforts have to be made to understand the particular causes and consequences of dryland degradation and to promote sustainable management options for semi-arid and arid ecosystems in a changing world. Here I particularly address the problem of semi-arid savanna degradation, which mostly occurs in form of woody plant encroachment. At this, I aim at finding viable sustainable management strategies and improving the general understanding of semi-arid savanna vegetation dynamics under conditions of extensive livestock production. Moreover, the influence of external forces, i.e. environmental change and land reform, on the use of savanna vegetation and on the ecosystem response to this land use is assessed. Based on this I identify conditions and strategies that facilitate a sustainable use of semi-arid savanna rangelands in a changing world. I extended an eco-hydrological model to simulate rangeland vegetation dynamics for a typical semi-arid savanna in eastern Namibia. In particular, I identified the response of semi-arid savanna vegetation to different land use strategies (including fire management) also with regard to different predicted precipitation, temperature and CO2 regimes. Not only environmental but also economic and political constraints like e.g. land reform programmes are shaping rangeland management strategies. Hence, I aimed at understanding the effects of the ongoing process of land reform in southern Africa on land use and the semi-arid savanna vegetation. Therefore, I developed and implemented an agent-based ecological-economic modelling tool for interactive role plays with land users. This tool was applied in an interdisciplinary empirical study to identify general patterns of management decisions and the between-farm cooperation of land reform beneficiaries in eastern Namibia. The eco-hydrological simulations revealed that the future dynamics of semi-arid savanna vegetation strongly depend on the respective climate change scenario. In particular, I found that the capacity of the system to sustain domestic livestock production will strongly depend on changes in the amount and temporal distribution of precipitation. In addition, my simulations revealed that shrub encroachment will become less likely under future climatic conditions although positive effects of CO2 on woody plant growth and transpiration have been considered. While earlier studies predicted a further increase in shrub encroachment due to increased levels of atmospheric CO2, my contrary finding is based on the negative impacts of temperature increase on the drought sensitive seedling germination and establishment of woody plant species. Further simulation experiments revealed that prescribed fires are an efficient tool for semi-arid rangeland management, since they suppress woody plant seedling establishment. The strategies tested have increased the long term productivity of the savanna in terms of livestock production and decreased the risk for shrub encroachment (i.e. savanna degradation). This finding refutes the views promoted by existing studies, which state that fires are of minor importance for the vegetation dynamics of semi-arid and arid savannas. Again, the difference in predictions is related to the bottleneck at the seedling establishment stage of woody plants, which has not been sufficiently considered in earlier studies. The ecological-economic role plays with Namibian land reform beneficiaries showed that the farmers made their decisions with regard to herd size adjustments according to economic but not according to environmental variables. Hence, they do not manage opportunistically by tracking grass biomass availability but rather apply conservative management strategies with low stocking rates. This implies that under the given circumstances the management of these farmers will not per se cause (or further worsen) the problem of savanna degradation and shrub encroachment due to overgrazing. However, as my results indicate that this management strategy is rather based on high financial pressure, it is not an indicator for successful rangeland management. Rather, farmers struggle hard to make any positive revenue from their farming business and the success of the Namibian land reform is currently disputable. The role-plays also revealed that cooperation between farmers is difficult even though obligatory due to the often small farm sizes. I thus propose that cooperation needs to be facilitated to improve the success of land reform beneficiaries. N2 - Semiaride (halbtrockene) Savannen bedecken große Teile der Erdoberfläche und sichern die Lebensgrundlage von vielen Millionen Menschen. Die häufigste Form der Landnutzung in diesen Trockengebieten ist die Produktion von Vieh in extensiver Weidelandbewirtschaftung. In Folge klimatischer Veränderungen und als Konsequenz aus der teils intensiven Beweidung dieser Trockengebiete kommt es häufig zur Degradierung derselben in Form einer Zunahme von ‚unerwünschter‘ holziger Vegetation auf Kosten von futterverwertbaren Gräsern. Dieser als Verbuschung bezeichnete Prozess hat schwere negative Auswirkungen auf die betroffenen Ökosysteme und ist die Ursache für einen zunehmenden Rückgang der ökonomischen Leistungsfähigkeit der betroffenen Betriebe. In meiner Dissertation befasse ich mich mit den Auswirkungen von Klimawandel und politischen Veränderungen auf die Savannenvegetation im südlichen Afrika und auf die Möglichkeiten für die Nutzung dieser Ökosysteme in Form von Viehwirtschaft. Hierbei möchte ich sowohl das allgemeine Verständnis der ökologischen Zusammenhänge verbessern, als auch Strategien für die nachhaltige Nutzung der Savannen identifizieren und bewerten. Da nicht nur ökologische, sondern auch ökonomische und politische Einflussfaktoren, wie zum Beispiel die umfangreichen Landumverteilungen im Rahmen der Bodenreform im südlichen Afrika auf die tatsächliche Landnutzung wirken, habe ich im Rahmen der Dissertation zudem untersucht, nach welchen Umwelt und Kapitalvariablen sich die Farmer, welche Ihr Land im Rahmen der Bodenreform zugeteilt bekommen haben, bei Ihren Entscheidungen richten. Methodisch verwende ich verschiedene Simulationsmodelle, welche zur Untersuchung der langfristigen Veränderungen von verschiedensten Szenarien (Klimawandel, Landnutzung) geeignet sind. Hierbei habe ich teilweise bestehende Modelle angepasst, aber auch ein neues Modell, welches zur Befragung von Farmern in Namibia verwendet wurde, entwickelt. Meine Dissertation führt im Wesentlichen zu vier Erkenntnissen: Erstens, zeigen meine Ergebnisse, welche große Bedeutung die spezifischen ökologischen Eigenschaften der Bäume und Sträucher in semiariden Savannen für die Vorhersage der Entwicklung dieser Systeme unter Klimawandel hat. Hierbei zeigte sich, dass insbesondere die Sensitivität der Keimlinge gegenüber Trockenheit und Feuer eine entscheidende Rolle spielt. Daraus folgt die zweite wesentliche Erkenntnis: Feuer eignet sich in herausragender Weise, um halbtrockene Savannen vor der Verbuschung zu bewahren. Drittens haben die Rollenspiele mit Farmern in Namibia gezeigt, dass deren Entscheidungen im Wesentlichen von finanziellen Schwierigkeiten und nicht von Umwelteinflüssen getrieben werden. Dennoch zeigten meine Ergebnisse, dass diese Farmer mit Ihrem derzeitigen Verhalten wahrscheinlich nicht zur weiteren Degradierung der Savannenvegetation beitragen. Die vierte, und mit am bedeutendste Erkenntnis aus meiner Arbeit ist, dass konservative Beweidungsstrategien mit geringen und konstanten Viehdichten notwendig sind um semiaride Savannen dauerhaft in ökologisch und ökonomisch nachhaltiger Weise zu Nutzen. KW - Savanne KW - nachhaltige Landnutzung KW - ökohydrologische Modellierung KW - Land Reform KW - Klimawandel KW - Savanna KW - sustainable land use KW - eco-hydrological modelling KW - land reform KW - climate change Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65069 ER - TY - THES A1 - Ambili, Anoop T1 - Lake sediments as climate and tectonic archives in the Indian summer monsoon domain T1 - Seesedimente als Klima- und Tektonikarchive im Einflussbereich des Indischen Sommermonsuns N2 - The Indian summer monsoon (ISM) is one of the largest climate systems on earth and impacts the livelihood of nearly 40% of the world’s population. Despite dedicated efforts, a comprehensive picture of monsoon variability has proved elusive largely due to the absence of long term high resolution records, spatial inhomogeneity of the monsoon precipitation, and the complex forcing mechanisms (solar insolation, internal teleconnections for e.g., El Niño-Southern Oscillation, tropical-midlatitude interactions). My work aims to improve the understanding of monsoon variability through generation of long term high resolution palaeoclimate data from climatically sensitive regions in the ISM and westerlies domain. To achieve this aim I have (i) identified proxies (sedimentological, geochemical, isotopic, and mineralogical) that are sensitive to environmental changes; (ii) used the identified proxies to generate long term palaeoclimate data from two climatically sensitive regions, one in NW Himalayas (transitional westerlies and ISM domain in the Spiti valley and one in the core monsoon zone (Lonar lake) in central India); (iii) undertaken a regional overview to generate “snapshots” of selected time slices; and (iv) interpreted the spatial precipitation anomalies in terms of those caused by modern teleconnections. This approach must be considered only as the first step towards identifying the past teleconnections as the boundary conditions in the past were significantly different from today and would have impacted the precipitation anomalies. As the Spiti valley is located in the in the active tectonic orogen of Himalayas, it was essential to understand the role of regional tectonics to make valid interpretations of catchment erosion and detrital influx into the lake. My approach of using integrated structural/morphometric and geomorphic signatures provided clear evidence for active tectonics in this area and demonstrated the suitability of these lacustrine sediments as palaleoseismic archives. The investigations on the lacustrine outcrops in Spiti valley also provided information on changes in seasonality of precipitation and occurrence of frequent and intense periods (ca. 6.8-6.1 cal ka BP) of detrital influx indicating extreme hydrological events in the past. Regional comparison for this time slice indicates a possible extended “break-monsoon like” mode for the monsoon that favors enhanced precipitation over the Tibetan plateau, Himalayas and their foothills. My studies on surface sediments from Lonar lake helped to identify environmentally sensitive proxies which could also be used to interpret palaeodata obtained from a ca. 10m long core raised from the lake in 2008. The core encompasses the entire Holocene and is the first well dated (by 14C) archive from the core monsoon zone of central India. My identification of authigenic evaporite gaylussite crystals within the core sediments provided evidence of exceptionally drier conditions during 4.7-3.9 and 2.0-0.5 cal ka BP. Additionally, isotopic investigations on these crystals provided information on eutrophication, stratification, and carbon cycling processes in the lake. N2 - Der Indische Sommer Monsun (ISM) ist eines der bedeutendsten Klimaphänomene auf der Erde und hat großen Einfluss auf die Lebensbedingungen und -grundlagen von nahezu 40% der Weltbevölkerung. Trotz großer Bemühungen ist es bisher nicht gelungen ein genaues und umfassendes Verständnis der Monsun-Variabilität zu gewinnen. Hauptgründe dafür sind das Fehlen von langjährigen und hochaufgelösten Klimazeitreihen, räumlichen Inhomogenitäten in den Niederschlagsverteilungen und die Komplexität der treibenden klimatischen Mechanismen (Sonneneinstrahlung, interne Wechselwirkungen des Klimasystems, wie z.B. zwischen Tropen und mittleren Breiten oder die Auswirkungen der El Niño Oszillation). Die Zielsetzung der hier vorgestellten Arbeit ist ein verbessertes Verständnis der Monsun-Variabilität zu entwickeln, auf Basis von hochaufgelösten und weit reichenden Paläoklimazeitreihen aus klimasensitiven Regionen des ISM und der Westwindzone. Um die Zielsetzung umzusetzen habe ich: (i) Proxys identifiziert (sedimentologische, geochemische, isotopische, und mineralogische), die empfindlich auf Umweltveränderungen reagieren; (ii) die identifizierten Proxys zur Erzeugung von langjährigen Paläoklima-Daten für zwei klimasensible Regionen verwendet, eine im NW des Himalaja (Übergangs-Westwindzone und ISM Gebiet von Spity Valley) und eine in der Kernzone des Monsun (Lonar-See) in Zentralindien; (iii) Übersichts-"Momentaufnahmen" der regionalen klimatischen Bedingungen für ausgewählte Zeitpunkte der Vergangenheit erzeugt; und (iv) räumliche Niederschlagsanomalien in Hinblick auf heutige Wechselbeziehungen im Klimasystem interpretiert. Dieser Ansatz stellt allerdings nur einen ersten Schritt zur Identifizierung von paläoklimatischen Wechselbeziehungen im Monsunsystem dar, da sich die Randbedingungen in der Vergangenheit deutlich von den heutigen unterscheiden und diese einen signifikanten Einfluss auf die Niederschlagsanomalien haben. Da das Spity Valley im tektonisch aktiven Himalaja-Orogen lokalisiert ist, ist es von entscheidender Bedeutung die regionalen tektonischen Prozesse zu verstehen, um Erosionsvorgänge des Einzugsgebiets und die Einfuhr von Detritus in den See korrekt interpretieren zu können. Mein Ansatz der Nutzung kombinierter strukturell/morphometrischer und geomorphologischer Charakteristiken lieferte klare Beweise für aktive Tektonik im untersuchten Gebiet und demonstrierte damit die Eignung dieser lakustrinen Sedimente als paläoseismisches Archiv. Die Untersuchung lakustriner Aufschlüsse in Spity Valley lieferte auch Informationen saisonale Änderung der Niederschlagsverteilung sowie das Auftreten von häufigen und intensiven Perioden (ca. 6,8-6,1 cal ka BP) detritischer Einfuhr, welche auf extreme hydrologische Ereignisse in der Vergangenheit schließen lässt. Ein regionaler Vergleich dieser Periode deutet auf einen möglicherweise erweiterten „break-monsoon-like“ Modus für den Monsun hin, welcher hohe Niederschläge über dem Tibetischen Plateau, dem Himalaja und seinen Gebirgsausläufern begünstigt. Meine Studien an den Oberflächensedimenten des Lonar-Sees haben dazu beigetragen umweltsensitive Proxys zu identifizieren, die auch zur Interpretation von Paläodaten von einem ca. 10 m langen Sedimentkern genutzt wurden, der 2008 erbohrt wurde. Der Kern umfasst das gesamte Holozän und stellt das erste gut 14C-datierte Archiv aus der Kernmonsunzone Zentralindiens dar. Die Identifizierung von authigenen Evaporit-Kristallen (Gaylussite) innerhalb der Sedimente liefert einen Beweis für ungewöhnlich trockene Bedingungen in den Perioden zwischen 4,7-3,9 und 2,0-0,5 cal ka BP. Darüber hinaus lieferten Isotopen-Untersuchungen dieser Kristalle Informationen zur Eutrophierung, Stratifikation und zum Kohlenstoff-Kreislauf des Sees. KW - Gaylussite KW - Indische Sommer Monsun KW - Seesediment KW - Spity Valley KW - Lonarsee KW - Gaylussite KW - Indian summer monsoon KW - Lake sediments KW - Spiti valley KW - Lonar lake Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64799 ER - TY - THES A1 - Fechler, Nina T1 - Salts as highly diverse porogens : functional ionic liquid-derived carbons and carbon-based composites for energy-related applications T1 - Salze als vielfältige Porogene : funktionelle, ionische Flüssigkeiten basierte Kohlenstoffe und Kohlenstoff basierte Komposite für Energieanwendungen N2 - The present thesis is to be brought into line with the current need for alternative and sustainable approaches toward energy management and materials design. In this context, carbon in particular has become the material of choice in many fields such as energy conversion and storage. Herein, three main topics are covered: 1)An alternative synthesis strategy toward highly porous functional carbons with tunable porosity using ordinary salts as porogen (denoted as “salt templating”) 2)The one-pot synthesis of porous metal nitride containing functional carbon composites 3)The combination of both approaches, enabling the generation of highly porous composites with finely tunable properties All approaches have in common that they are based on the utilization of ionic liquids, salts which are liquid below 100 °C, as precursors. Just recently, ionic liquids were shown to be versatile precursors for the generation of heteroatom-doped carbons since the liquid state and a negligible vapor pressure are highly advantageous properties. However, in most cases the products do not possess any porosity which is essential for many applications. In the first part, “salt templating”, the utilization of salts as diverse and sustainable porogens, is introduced. Exemplarily shown for ionic liquid derived nitrogen- and nitrogen-boron-co-doped carbons, the control of the porosity and morphology on the nanometer scale by salt templating is presented. The studies within this thesis were conducted with the ionic liquids 1-Butyl-3-methyl-pyridinium dicyanamide (Bmp-dca), 1-Ethyl-3-methyl-imidazolium dicyanamide (Emim-dca) and 1 Ethyl 3-methyl-imidazolium tetracyanoborate (Emim-tcb). The materials are generated through thermal treatment of precursor mixtures containing one of the ionic liquids and a porogen salt. By simple removal of the non-carbonizable template salt with water, functional graphitic carbons with pore sizes ranging from micro- to mesoporous and surface areas up to 2000 m2g-1 are obtained. The carbon morphologies, which presumably originate from different onsets of demixing, mainly depend on the nature of the porogen salt whereas the nature of the ionic liquid plays a minor role. Thus, a structural effect of the porogen salt rather than activation can be assumed. This offers an alternative to conventional activation and templating methods, enabling to avoid multiple-step and energy-consuming synthesis pathways as well as employment of hazardous chemicals for the template removal. The composition of the carbons can be altered via the heat-treatment procedure, thus at lower synthesis temperatures rather polymeric carbonaceous materials with a high degree of functional groups and high surface areas are accessible. First results suggest the suitability of the materials for CO2 utilization. In order to further illustrate the potential of ionic liquids as carbon precursors and to expand the class of carbons which can be obtained, the ionic liquid 1-Ethyl-3-methyl-imidazolium thiocyanate (Emim-scn) is introduced for the generation of nitrogen-sulfur-co-doped carbons in combination with the already studied ionic liquids Bmp-dca and Emim-dca. Here, the salt templating approach should also be applicable eventually further illustrating the potential of salt templating, too. In the second part, a one-pot and template-free synthesis approach toward inherently porous metal nitride nanoparticle containing nitrogen-doped carbon composites is presented. Since ionic liquids also offer outstanding solubility properties, the materials can be generated through the carbonization of homogeneous solutions of an ionic liquid acting as nitrogen as well as carbon source and the respective metal precursor. The metal content and surface area are easily tunable via the initial metal precursor amount. Furthermore, it is also possible to synthesize composites with ternary nitride nanoparticles whose composition is adjustable by the metal ratio in the precursor solution. Finally, both approaches are combined into salt templating of the one-pot composites. This opens the way to the one-step synthesis of composites with tunable composition, particle size as well as precisely controllable porosity and morphology. Thereby, common synthesis strategies where the product composition is often negatively affected by the template removal procedure can be avoided. The composites are further shown to be suitable as electrodes for supercapacitors. Here, different properties such as porosity, metal content and particle size are investigated and discussed with respect to their influence on the energy storage performance. Because a variety of ionic liquids, metal precursors and salts can be combined and a simple closed-loop process including salt recycling is imaginable, the approaches present a promising platform toward sustainable materials design. N2 - Die vorliegende Arbeit basiert auf der Notwendigkeit für eine alternative und nachhaltige Energiewirtschaft sowie alternativer Herstellungsmethoden der damit verbundenen Materialien. Hierbei kommt besonders Kohlenstoffen und kohlenstoffbasierten Systemen eine hohe Bedeutung zu. Im Rahmen der Dissertation wurden drei Ansätze verfolgt, die zu der Entwicklung alternativer Strategien zur Herstellung poröser Heteroatom-enthaltender Kohlenstoffe und deren Komposite beitragen. Die Materialien wurden des Weiteren für die CO2 Nutzung sowie Energiespeicherung in Form von Superkondensatoren getestet. Allen Materialien ist gemeinsam, dass sie ausgehend von ionischen Flüssigkeiten, Salze mit einem Schmelzpunkt unterhalb von 100 °C, als Kohlenstoffvorstufe durch Hochtemperaturverfahren hergestellt wurden. Im ersten Teil wird ein alternatives und nachhaltiges Verfahren zur Herstellung hochporöser Stickstoff und Stickstoff-Bor-haltiger Kohlenstoffe vorgestellt. Bei dieser als „Salztemplatierung“ bezeichneten Methode werden herkömmliche Salze als Porogen verwendet. Damit sind sehr hohe Oberflächen erreichbar, die neben der Porengröße und dem Porenvolumen durch die Variation der Salzspezies und Salzmenge einstellbar sind. Dies bietet gegenüber herkömmlichen Templatierungsverfahren den Vorteil, dass das Salz nach erfolgter Karbonisierung der ionischen Flüssigkeit in Anwesenheit der nicht karbonisierbaren Salzspezies einfach mit Wasser auswaschbar ist. Hierbei ist ein Recyclingprozess denkbar. Bei hohen Synthesetemperaturen werden graphitische, bei niedrigen hochfunktionalisierte, polymerartige Produkte erhalten. Letztere erwiesen sich als vielversprechende Materialien für die CO2 Nutzung. Unter Verwendung einer bisher nicht eingesetzten ionische Flüssigkeit konnte weiterhin die Einführung von Schwefel als Heteroatom ermöglicht werden. Im zweiten Teil wird eine Templat-freie Einschrittsynthese von porösen Kompositen aus Metallnitrid Nanopartikeln und Stickstoff-dotiertem Kohlenstoff vorgestellt. Die Materialien werden ausgehend von einer Lösung aus einer ionischen Flüssigkeit und einem Metallvorläufer hergestellt, wobei die ionische Flüssigkeit sowohl als Kohlenstoffvorläufer als auch als Stickstoffquelle für die Metallnitride dient. Der Metallgehalt, das Metallverhältnis in ternären Nitriden und die Oberfläche sind über den Anteil des Metallvorläufers einstellbar. Schließlich werden beide Ansätze zur Salztemplatierung von den Kompositen kombiniert. Dadurch wird die Einschrittsynthese von Kompositen mit einstellbarer Oberfläche, Zusammensetzung, Partikelgröße und Morphologie ermöglicht. Diese Materialien wurden schließlich als Elektroden für Superkondensatoren getestet und der Einfluss verschiedener Parameter auf die Leistungsfähigkeit untersucht. Aufgrund verschiedener Kombinationsmöglichkeiten von ionischen Flüssigkeiten, Metallvorläufern und Salzen, stellen die hier präsentierten Ansätze eine vielversprechende Plattform für die nachhaltige Materialsynthese dar. KW - Salze KW - Poröse Materialien KW - Heteroatom-dotierte Kohlenstoffe KW - Metallnitrid-Kohlenstoff Komposite KW - Superkondensator KW - Salts KW - porous materials KW - heteroatom-doped carbons KW - metal nitride carbon composites KW - supercapacitors Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64775 ER - TY - THES A1 - Waha, Katharina T1 - Climate change impacts on agricultural vegetation in sub-Saharan Africa T1 - Auswirkungen von Klimaänderungen auf die landwirtschaftliche Vegetation in Afrika südlich der Sahara N2 - Agriculture is one of the most important human activities providing food and more agricultural goods for seven billion people around the world and is of special importance in sub-Saharan Africa. The majority of people depends on the agricultural sector for their livelihoods and will suffer from negative climate change impacts on agriculture until the middle and end of the 21st century, even more if weak governments, economic crises or violent conflicts endanger the countries’ food security. The impact of temperature increases and changing precipitation patterns on agricultural vegetation motivated this thesis in the first place. Analyzing the potentials of reducing negative climate change impacts by adapting crop management to changing climate is a second objective of the thesis. As a precondition for simulating climate change impacts on agricultural crops with a global crop model first the timing of sowing in the tropics was improved and validated as this is an important factor determining the length and timing of the crops´ development phases, the occurrence of water stress and final crop yield. Crop yields are projected to decline in most regions which is evident from the results of this thesis, but the uncertainties that exist in climate projections and in the efficiency of adaptation options because of political, economical or institutional obstacles have to be considered. The effect of temperature increases and changing precipitation patterns on crop yields can be analyzed separately and varies in space across the continent. Southern Africa is clearly the region most susceptible to climate change, especially to precipitation changes. The Sahel north of 13° N and parts of Eastern Africa with short growing seasons below 120 days and limited wet season precipitation of less than 500 mm are also vulnerable to precipitation changes while in most other part of East and Central Africa, in contrast, the effect of temperature increase on crops overbalances the precipitation effect and is most pronounced in a band stretching from Angola to Ethiopia in the 2060s. The results of this thesis confirm the findings from previous studies on the magnitude of climate change impact on crops in sub-Saharan Africa but beyond that helps to understand the drivers of these changes and the potential of certain management strategies for adaptation in more detail. Crop yield changes depend on the initial growing conditions, on the magnitude of climate change, and on the crop, cropping system and adaptive capacity of African farmers which is only now evident from this comprehensive study for sub-Saharan Africa. Furthermore this study improves the representation of tropical cropping systems in a global crop model and considers the major food crops cultivated in sub-Saharan Africa and climate change impacts throughout the continent. N2 - Landwirtschaft ist eine der wichtigsten menschlichen Aktivitäten, sie stellt Nahrungsmittel und andere landwirtschaftliche Produkte für weltweit 7 Milliarden Menschen zur Verfügung und ist in den Ländern Afrikas südlich der Sahara von besonderer Bedeutung. Die Mehrheit der afrikanischen Bevölkerung bestreitet ihren Lebensunterhalt in der Landwirtschaft und wird von Klimaänderungen stark betroffen sein. Die Doktorarbeit ist durch die Frage motiviert, wie sich von Klimamodellen vorhergesagte Temperaturerhöhungen und sich verändernde Niederschlagsverteilungen auf die landwirtschaftliche Vegetation auswirken werden. Die Forschungsfragen in diesem Kontext beschäftigen sich mit regionalen Unterschieden von Klimaänderungen und ihren Auswirkungen auf die Landwirtschaft und mit möglichen Anpassungsstrategien die mit geringem technischem Aufwand genutzt werden können. In diesem Zusammenhang wird schnell deutlich, dass Daten über die komplexen landwirtschaftlichen Systeme in Afrika südlich der Sahara häufig nur selten vorhanden sind, aus fragwürdigen Quellen stammen oder von schlechter Qualität sind. Die Methoden und Modelle zur Untersuchung der Auswirkungen von Klimaänderungen auf die Landwirtschaft werden zudem ausschließlich in Europa oder Nordamerika entwickelt and häufig in den temperierten Breiten aber seltener in tropischen Gebieten angewendet. Vor allem werden globale, dynamische Vegetationsmodelle in Kombination mit Klimamodellen eingesetzt um Änderungen in der landwirtschaftlichen Produktion auf Grund von Klimaänderungen in der zweiten Hälfte des 21.Jahrhunderts abzuschätzen. Die Ergebnisse der Arbeit zeigen einen mittleren Ertragsrückgang für die wichtigsten landwirtschaftlichen Pflanzen um 6% bis 24% bis 2090 je nach Region, Klimamodell und Anpassungsstrategie. Dieses Ergebnis macht deutlich, dass Landwirte die negativen Folgen von Klimaänderungen abschwächen können, wenn sie die Wahl der Feldfrucht, die Wahl des Anbausystems und den Aussaattermin an geänderte Klimabedingungen anpassen. Die Arbeit stellt methodische Ansätze zur Berechung des Aussaattermins in temperierten und tropischen Gebieten (Kapitel 2) sowie zur Simulation von Mehrfachanbausystemen in den Tropen vor (Kapitel 3). Dabei werden wichtige Parameter für das globale, dynamische Vegetationsmodell LPJmL überprüft und neu berechnet. Es zeigt sich, dass das südliche Afrika und die Sahelregion die am stärksten betroffenen Regionen sind, vor allem aufgrund von Niederschlagsänderungen, weniger aufgrund von Temperaturerhöhungen. In den meisten anderen Teilen, vor allem Zentral- und Ostafrikas bedingen Temperaturerhöhungen Rückgänge der Erträge (Kapitel 4). Diese Arbeit leistet einen wichtigen und umfassenden Beitrag zum Verständnis der Auswirkung von Klimaänderung auf die landwirtschaftliche Vegetation und damit zu einem großen Teil auf die Lebensgrundlage von afrikanischen Landwirten. KW - Klimawandel KW - Anpassung KW - Afrika KW - Pflanzenwachstum KW - Landwirtschaft KW - climate change KW - Africa KW - crop modeling KW - adapation KW - agriculture Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64717 ER - TY - THES A1 - Ghani, Fatemeh T1 - Nucleation and growth of unsubstituted metal phthalocyanine films from solution on planar substrates T1 - Keimbildung und Wachstum der unsubstituierten Metall-Phthalocyanin-Schichten aus der Lösung auf den planaren Oberflächen N2 - Organic solar cells (OSC) are interesting as low cost alternative to conventional solar cells. Unsubstituted Metal-phthalocyanines (Pc) are excellent electron donating molecules for heterojunction OSC. Usually organic solar cells with Pcs are produced by vapor deposition, although solution based deposition (like spin casting) is cheaper and offers more possibilities to control the structure of the film. With solution based deposition several parameters (like temperature, solvent and etc.) affect the self-organized structure formation via nucleation and growth. The reason why vapor deposition is typically used is the poor solubility of the metal-phthalocyanines in most common solvents. Furthermore the process of nucleation and growth of Pc aggregates from solution is not well understood. For preparation of Pc films from solution, it is necessary to find the appropriate solvents, assess the solution deposition techniques, such as dip coating, and spin casting. It is necessary to understand the nucleation and growth process for aggregation/precipitation and to use this knowledge to produce nanostructures appropriate for OSC. This is important because the nanostructure of the films determines their performance. In this thesis, optical absorption and the stability of 8 different unsubstituted metal Pc’s were studied quantitatively in 28 different solvents. Among the several solution based deposited thin films produced based on this study, copper phthalocyanine (CuPc) dissolved in trifluoroacetic acid (TFA) is chosen as a model system for an in-depth study. CuPc has sufficient solubility and stability in TFA and upon solution processing forms appropriate structures for OSCs. CuPc molecules aggregate into layers of nanoribbons with a thickness of ~ 1 nm and an adjustable width and length. The morphology and the number of deposited layers in the thin films are controlled by different parameters, like temperature and solution concentration. Material properties of CuPc deposited from TFA are studied in detail via x-ray diffraction, UV-Vis and FT-IR spectroscopy. Atomic force microscopy was used to study the morphology of the dried film. The mechanism of the formation of CuPc nanoribbons from spin casted CuPc/TFA solution in ambient temperature is investigated and explained. The parameters (e.g. solution concentration profile) governing nucleation and growth are calculated based on the spin casting theory of a binary mixture of a nonvolatile solute and evaporative solvent. Based on this and intermolecular interactions between CuPc and substrate a nucleation and growth model is developed explaining the aggregation of CuPc in a supersaturated TFA solution. Finally, a solution processed thin film of CuPc is applied as a donor layer in a functioning bilayer heterojunction OSC and the influence of the structure on OSC performance is studied. N2 - In den vergangenen Jahren wurden kosteneffiziente nasschemische Beschichtungsverfahren für die Herstellung organischer Dünnfilme für verschiedene opto-elektronische Anwendungen entdeckt und weiterentwickelt. Unter anderem wurden Phthalocyanin-Moleküle in photoaktiven Schichten für die Herstellung von Solarzellen intensiv erforscht. Aufgrund der kleinen bzw. unbekannten Löslichkeit wurden Phthalocyanin-Schichten durch Aufdampfverfahren im Vakuum hergestellt. Des Weiteren wurde die Löslichkeit durch chemische Synthese erhöht, was aber die Eigenschaften von Pc beeinträchtigte. In dieser Arbeit wurde die Löslichkeit, optische Absorption und Stabilität von 8 verschiedenen unsubstituierten Metall-Phthalocyaninen in 28 verschiedenen Lösungsmitteln quantitativ gemessen. Wegen ausreichender Löslichkeit, Stabilität und Anwendbarkeit in organischen Solarzellen wurde Kupferphthalocyanin (CuPc) in Trifluoressigsäure (TFA) für weitere Untersuchungen ausgewählt. Durch die Rotationsbeschichtung von CuPc aus TFA Lösung wurde ein dünner Film aus der verdampfenden Lösung auf dem Substrat platziert. Nach dem Verdampfen des Lösungsmittels, die Nanobändern aus CuPc bedecken das Substrat. Die Nanobänder haben eine Dicke von etwa ~ 1 nm (typische Dimension eines CuPc-Molekül) und variierender Breite und Länge, je nach Menge des Materials. Solche Nanobändern können durch Rotationsbeschichtung oder auch durch andere Nassbeschichtungsverfahren, wie Tauchbeschichtung, erzeugt werden. Ähnliche Fibrillen-Strukturen entstehen durch Nassbeschichtung von anderen Metall-Phthalocyaninen, wie Eisen- und Magnesium-Phthalocyanin, aus TFA-Lösung sowie auf anderen Substraten, wie Glas oder Indium Zinnoxid. Materialeigenschaften von aufgebrachten CuPc aus TFA Lösung und CuPc in der Lösung wurden ausführlich mit Röntgenbeugung, Spektroskopie- und Mikroskopie Methoden untersucht. Es wird gezeigt, dass die Nanobänder nicht in der Lösung, sondern durch Verdampfen des Lösungsmittels und der Übersättigung der Lösung entstehen. Die Rasterkraftmikroskopie wurde dazu verwendet, um die Morphologie des getrockneten Films bei unterschiedlicher Konzentration zu studieren. Der Mechanismus der Entstehung der Nanobändern wurde im Detail studiert. Gemäß der Keimbildung und Wachstumstheorie wurde die Entstehung der CuPc Nanobänder aus einer übersättigt Lösung diskutiert. Die Form der Nanobändern wurde unter Berücksichtigung der Wechselwirkung zwischen den Molekülen und dem Substrat diskutiert. Die nassverarbeitete CuPc-Dünnschicht wurde als Donorschicht in organischen Doppelschicht Solarzellen mit C60-Molekül, als Akzeptor eingesetzt. Die Effizienz der Energieumwandlung einer solchen Zelle wurde entsprechend den Schichtdicken der CuPc Schicht untersucht. KW - Kupferphthalocyanin KW - Keimbildung und Wachstum KW - Rotationsbeschichtung KW - Organische Solarzellen KW - Copper Phthalocyanine KW - Adsorption KW - nucleation and growth KW - Spin casting KW - Organic Solar Cell Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64699 ER - TY - THES A1 - Seibel, Andreas T1 - Traceability and model management with executable and dynamic hierarchical megamodels T1 - Traceability und Modell Management mit ausführbaren und dynamischen Megamodellen N2 - Nowadays, model-driven engineering (MDE) promises to ease software development by decreasing the inherent complexity of classical software development. In order to deliver on this promise, MDE increases the level of abstraction and automation, through a consideration of domain-specific models (DSMs) and model operations (e.g. model transformations or code generations). DSMs conform to domain-specific modeling languages (DSMLs), which increase the level of abstraction, and model operations are first-class entities of software development because they increase the level of automation. Nevertheless, MDE has to deal with at least two new dimensions of complexity, which are basically caused by the increased linguistic and technological heterogeneity. The first dimension of complexity is setting up an MDE environment, an activity comprised of the implementation or selection of DSMLs and model operations. Setting up an MDE environment is both time-consuming and error-prone because of the implementation or adaptation of model operations. The second dimension of complexity is concerned with applying MDE for actual software development. Applying MDE is challenging because a collection of DSMs, which conform to potentially heterogeneous DSMLs, are required to completely specify a complex software system. A single DSML can only be used to describe a specific aspect of a software system at a certain level of abstraction and from a certain perspective. Additionally, DSMs are usually not independent but instead have inherent interdependencies, reflecting (partial) similar aspects of a software system at different levels of abstraction or from different perspectives. A subset of these dependencies are applications of various model operations, which are necessary to keep the degree of automation high. This becomes even worse when addressing the first dimension of complexity. Due to continuous changes, all kinds of dependencies, including the applications of model operations, must also be managed continuously. This comprises maintaining the existence of these dependencies and the appropriate (re-)application of model operations. The contribution of this thesis is an approach that combines traceability and model management to address the aforementioned challenges of configuring and applying MDE for software development. The approach is considered as a traceability approach because it supports capturing and automatically maintaining dependencies between DSMs. The approach is considered as a model management approach because it supports managing the automated (re-)application of heterogeneous model operations. In addition, the approach is considered as a comprehensive model management. Since the decomposition of model operations is encouraged to alleviate the first dimension of complexity, the subsequent composition of model operations is required to counteract their fragmentation. A significant portion of this thesis concerns itself with providing a method for the specification of decoupled yet still highly cohesive complex compositions of heterogeneous model operations. The approach supports two different kinds of compositions - data-flow compositions and context compositions. Data-flow composition is used to define a network of heterogeneous model operations coupled by sharing input and output DSMs alone. Context composition is related to a concept used in declarative model transformation approaches to compose individual model transformation rules (units) at any level of detail. In this thesis, context composition provides the ability to use a collection of dependencies as context for the composition of other dependencies, including model operations. In addition, the actual implementation of model operations, which are going to be composed, do not need to implement any composition concerns. The approach is realized by means of a formalism called an executable and dynamic hierarchical megamodel, based on the original idea of megamodels. This formalism supports specifying compositions of dependencies (traceability and model operations). On top of this formalism, traceability is realized by means of a localization concept, and model management by means of an execution concept. N2 - Die modellgetriebene Softwareentwicklung (MDE) verspricht heutzutage, durch das Verringern der inhärenten Komplexität der klassischen Softwareentwicklung, das Entwickeln von Software zu vereinfachen. Um dies zu erreichen, erhöht MDE das Abstraktions- und Automationsniveau durch die Einbindung domänenspezifischer Modelle (DSMs) und Modelloperationen (z.B. Modelltransformationen oder Codegenerierungen). DSMs sind konform zu domänenspezifischen Modellierungssprachen (DSMLs), die dazu dienen das Abstraktionsniveau der Softwareentwicklung zu erhöhen. Modelloperationen sind essentiell für die Softwareentwicklung da diese den Grad der Automatisierung erhöhen. Dennoch muss MDE mit Komplexitätsdimensionen umgehen die sich grundsätzlich aus der erhöhten sprachlichen und technologischen Heterogenität ergeben. Die erste Komplexitätsdimension ist das Konfigurieren einer Umgebung für MDE. Diese Aktivität setzt sich aus der Implementierung und Selektion von DSMLs sowie Modelloperationen zusammen. Eine solche Aktivität ist gerade durch die Implementierung und Anpassung von Modelloperationen zeitintensiv sowie fehleranfällig. Die zweite Komplexitätsdimension hängt mit der Anwendung von MDE für die eigentliche Softwareentwicklung zusammen. Das Anwenden von MDE ist eine Herausforderung weil eine Menge von heterogenen DSMs, die unterschiedlichen DSMLs unterliegen, erforderlich sind um ein komplexes Softwaresystem zu spezifizieren. Individuelle DSMLs werden verwendet um spezifische Aspekte eines Softwaresystems auf bestimmten Abstraktionsniveaus und aus bestimmten Perspektiven zu beschreiben. Hinzu kommt, dass DSMs sowie DSMLs grundsätzlich nicht unabhängig sind, sondern inhärente Abhängigkeiten besitzen. Diese Abhängigkeiten reflektieren äquivalente Aspekte eines Softwaresystems. Eine Teilmenge dieser Abhängigkeiten reflektieren Anwendungen diverser Modelloperationen, die notwendig sind um den Grad der Automatisierung hoch zu halten. Dies wird erschwert wenn man die erste Komplexitätsdimension hinzuzieht. Aufgrund kontinuierlicher Änderungen der DSMs, müssen alle Arten von Abhängigkeiten, inklusive die Anwendung von Modelloperationen, kontinuierlich verwaltet werden. Dies beinhaltet die Wartung dieser Abhängigkeiten und das sachgerechte (wiederholte) Anwenden von Modelloperationen. Der Beitrag dieser Arbeit ist ein Ansatz, der die Bereiche Traceability und Model Management vereint. Das Erfassen und die automatische Verwaltung von Abhängigkeiten zwischen DSMs unterstützt Traceability, während das (automatische) wiederholte Anwenden von heterogenen Modelloperationen Model Management ermöglicht. Dadurch werden die zuvor erwähnten Herausforderungen der Konfiguration und Anwendung von MDE überwunden. Die negativen Auswirkungen der ersten Komplexitätsdimension können gelindert werden indem Modelloperationen in atomare Einheiten zerlegt werden. Um der implizierten Fragmentierung entgegenzuwirken, erfordert dies allerdings eine nachfolgende Komposition der Modelloperationen. Der Ansatz wird als erweitertes Model Management betrachtet, da ein signifikanter Anteil dieser Arbeit die Kompositionen von heterogenen Modelloperationen behandelt. Unterstützt werden zwei unterschiedliche Arten von Kompositionen. Datenfluss-Kompositionen werden verwendet, um Netzwerke von heterogenen Modelloperationen zu beschreiben, die nur durch das Teilen von Ein- und Ausgabe DSMs komponiert werden. Kontext-Kompositionen bedienen sich eines Konzepts, das von deklarativen Modelltransformationen bekannt ist. Dies ermöglicht die Komposition von unabhängigen Transformationsregeln auf unterschiedlichsten Detailebenen. Die in dieser Arbeit eingeführten Kontext-Kompositionen bieten die Möglichkeit eine Menge von unterschiedlichsten Abhängigkeiten als Kontext für eine Komposition zu verwenden -- unabhängig davon ob diese Abhängigkeit eine Modelloperation repräsentiert. Zusätzlich müssen die Modelloperationen, die komponiert werden, selber keine Kompositionsaspekte implementieren, was deren Wiederverwendbarkeit erhöht. Realisiert wird dieser Ansatz durch einen Formalismus der Executable and Dynamic Hierarchical Megamodel genannt wird und auf der originalen Idee der Megamodelle basiert. Auf Basis dieses Formalismus' sind die Konzepte Traceability (hier Localization) und Model Management (hier Execution) umgesetzt. KW - Traceability KW - Modell Management KW - Megamodell KW - Modellgetriebene Entwicklung KW - Komposition KW - Traceability KW - Model Management KW - Megamodel KW - Model-Driven Engineering KW - Composition Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64222 ER - TY - THES A1 - Branding, Volker T1 - The evolution equations for Dirac-harmonic Maps T1 - Die Evolutionsgleichungen für Dirac-harmonische Abbildungen N2 - This thesis investigates the gradient flow of Dirac-harmonic maps. Dirac-harmonic maps are critical points of an energy functional that is motivated from supersymmetric field theories. The critical points of this energy functional couple the equation for harmonic maps with spinor fields. At present, many analytical properties of Dirac-harmonic maps are known, but a general existence result is still missing. In this thesis the existence question is studied using the evolution equations for a regularized version of Dirac-harmonic maps. Since the energy functional for Dirac-harmonic maps is unbounded from below the method of the gradient flow cannot be applied directly. Thus, we first of all consider a regularization prescription for Dirac-harmonic maps and then study the gradient flow. Chapter 1 gives some background material on harmonic maps/harmonic spinors and summarizes the current known results about Dirac-harmonic maps. Chapter 2 introduces the notion of Dirac-harmonic maps in detail and presents a regularization prescription for Dirac-harmonic maps. In Chapter 3 the evolution equations for regularized Dirac-harmonic maps are introduced. In addition, the evolution of certain energies is discussed. Moreover, the existence of a short-time solution to the evolution equations is established. Chapter 4 analyzes the evolution equations in the case that the domain manifold is a closed curve. Here, the existence of a smooth long-time solution is proven. Moreover, for the regularization being large enough, it is shown that the evolution equations converge to a regularized Dirac-harmonic map. Finally, it is discussed in which sense the regularization can be removed. In Chapter 5 the evolution equations are studied when the domain manifold is a closed Riemmannian spin surface. For the regularization being large enough, the existence of a global weak solution, which is smooth away from finitely many singularities is proven. It is shown that the evolution equations converge weakly to a regularized Dirac-harmonic map. In addition, it is discussed if the regularization can be removed in this case. N2 - Die vorliegende Dissertation untersucht den Gradientenfluss von Dirac-harmonischen Abbildungen. Dirac-harmonische Abbildungen sind kritische Punkte eines Energiefunktionals, welches aus supersymmetrischen Feldtheorien motiviert ist. Die kritischen Punkte dieses Energiefunktionals koppeln die Gleichung für harmonische Abbildungen mit Spinorfeldern. Viele analytische Eigenschaften von Dirac-harmonischen Abbildungen sind bereits bekannt, ein allgemeines Existenzresultat wurde aber noch nicht erzielt. Diese Dissertation untersucht das Existenzproblem, indem der Gradientenfluss von einer regularisierten Version Dirac-harmonischer Abbildungen untersucht wird. Die Methode des Gradientenflusses kann nicht direkt angewendet werden, da das Energiefunktional für Dirac-harmonische Abbildungen nach unten unbeschränkt ist. Daher wird zunächst eine Regularisierungsvorschrift für Dirac-harmonische Abbildungen eingeführt und dann der Gradientenfluss betrachtet. Kapitel 1 stellt für die Arbeit wichtige Resultate über harmonische Abbildungen/harmonische Spinoren zusammen. Außerdem werden die zur Zeit bekannten Resultate über Dirac-harmonische Abbildungen zusammengefasst. In Kapitel 2 werden Dirac-harmonische Abbildungen im Detail eingeführt, außerdem wird eine Regularisierungsvorschrift präsentiert. Kapitel 3 führt die Evolutionsgleichungen für regularisierte Dirac-harmonische Abbildungen ein. Zusätzlich wird die Evolution von verschiedenen Energien diskutiert. Schließlich wird die Existenz einer Kurzzeitlösung bewiesen. In Kapitel 4 werden die Evolutionsgleichungen für den Fall analysiert, dass die Ursprungsmannigfaltigkeit eine geschlossene Kurve ist. Die Existenz einer Langzeitlösung der Evolutionsgleichungen wird bewiesen. Es wird außerdem gezeigt, dass die Evolutionsgleichungen konvergieren, falls die Regularisierung groß genug gewählt wurde. Schließlich wird diskutiert, ob die Regularisierung wieder entfernt werden kann. Kapitel 5 schlussendlich untersucht die Evolutionsgleichungen für den Fall, dass die Ursprungsmannigfaltigkeit eine geschlossene Riemannsche Spin Fläche ist. Es wird die Existenz einer global schwachen Lösung bewiesen, welche bis auf endlich viele Singularitäten glatt ist. Die Lösung konvergiert im schwachen Sinne gegen eine regularisierte Dirac-harmonische Abbildung. Auch hier wird schließlich untersucht, ob die Regularisierung wieder entfernt werden kann. KW - Dirac-harmonische Abbildungen KW - Gradientenfluss KW - Wärmefluss KW - Spin Geometrie KW - nichtlineare partielle Differentialgleichung KW - Dirac-harmonic maps KW - Gradient flow KW - Heat Flow KW - Spin Geometry KW - nonlinear partial differential equations Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64204 ER - TY - THES A1 - Glander, Tassilo T1 - Multi-scale representations of virtual 3D city models T1 - Maßstabsabhängige Repräsentationen virtueller 3D-Stadtmodelle N2 - Virtual 3D city and landscape models are the main subject investigated in this thesis. They digitally represent urban space and have many applications in different domains, e.g., simulation, cadastral management, and city planning. Visualization is an elementary component of these applications. Photo-realistic visualization with an increasingly high degree of detail leads to fundamental problems for comprehensible visualization. A large number of highly detailed and textured objects within a virtual 3D city model may create visual noise and overload the users with information. Objects are subject to perspective foreshortening and may be occluded or not displayed in a meaningful way, as they are too small. In this thesis we present abstraction techniques that automatically process virtual 3D city and landscape models to derive abstracted representations. These have a reduced degree of detail, while essential characteristics are preserved. After introducing definitions for model, scale, and multi-scale representations, we discuss the fundamentals of map generalization as well as techniques for 3D generalization. The first presented technique is a cell-based generalization of virtual 3D city models. It creates abstract representations that have a highly reduced level of detail while maintaining essential structures, e.g., the infrastructure network, landmark buildings, and free spaces. The technique automatically partitions the input virtual 3D city model into cells based on the infrastructure network. The single building models contained in each cell are aggregated to abstracted cell blocks. Using weighted infrastructure elements, cell blocks can be computed on different hierarchical levels, storing the hierarchy relation between the cell blocks. Furthermore, we identify initial landmark buildings within a cell by comparing the properties of individual buildings with the aggregated properties of the cell. For each block, the identified landmark building models are subtracted using Boolean operations and integrated in a photo-realistic way. Finally, for the interactive 3D visualization we discuss the creation of the virtual 3D geometry and their appearance styling through colors, labeling, and transparency. We demonstrate the technique with example data sets. Additionally, we discuss applications of generalization lenses and transitions between abstract representations. The second technique is a real-time-rendering technique for geometric enhancement of landmark objects within a virtual 3D city model. Depending on the virtual camera distance, landmark objects are scaled to ensure their visibility within a specific distance interval while deforming their environment. First, in a preprocessing step a landmark hierarchy is computed, this is then used to derive distance intervals for the interactive rendering. At runtime, using the virtual camera distance, a scaling factor is computed and applied to each landmark. The scaling factor is interpolated smoothly at the interval boundaries using cubic Bézier splines. Non-landmark geometry that is near landmark objects is deformed with respect to a limited number of landmarks. We demonstrate the technique by applying it to a highly detailed virtual 3D city model and a generalized 3D city model. In addition we discuss an adaptation of the technique for non-linear projections and mobile devices. The third technique is a real-time rendering technique to create abstract 3D isocontour visualization of virtual 3D terrain models. The virtual 3D terrain model is visualized as a layered or stepped relief. The technique works without preprocessing and, as it is implemented using programmable graphics hardware, can be integrated with minimal changes into common terrain rendering techniques. Consequently, the computation is done in the rendering pipeline for each vertex, primitive, i.e., triangle, and fragment. For each vertex, the height is quantized to the nearest isovalue. For each triangle, the vertex configuration with respect to their isovalues is determined first. Using the configuration, the triangle is then subdivided. The subdivision forms a partial step geometry aligned with the triangle. For each fragment, the surface appearance is determined, e.g., depending on the surface texture, shading, and height-color-mapping. Flexible usage of the technique is demonstrated with applications from focus+context visualization, out-of-core terrain rendering, and information visualization. This thesis presents components for the creation of abstract representations of virtual 3D city and landscape models. Re-using visual language from cartography, the techniques enable users to build on their experience with maps when interpreting these representations. Simultaneously, characteristics of 3D geovirtual environments are taken into account by addressing and discussing, e.g., continuous scale, interaction, and perspective. N2 - Gegenstand der Arbeit sind virtuelle 3D-Stadt- und Landschaftsmodelle, die den städtischen Raum in digitalen Repräsentationen abbilden. Sie werden in vielfältigen Anwendungen und zu unterschiedlichen Zwecken eingesetzt. Dabei ist die Visualisierung ein elementarer Bestandteil dieser Anwendungen. Durch realitätsnahe Darstellung und hohen Detailgrad entstehen jedoch zunehmend fundamentale Probleme für eine verständliche Visualisierung. So führt beispielsweise die hohe Anzahl von detailliert ausmodellierten und texturierten Objekten eines virtuellen 3D-Stadtmodells zu Informationsüberflutung beim Betrachter. In dieser Arbeit werden Abstraktionsverfahren vorgestellt, die diese Probleme behandeln. Ziel der Verfahren ist die automatische Transformation virtueller 3D-Stadt- und Landschaftsmodelle in abstrakte Repräsentationen, die bei reduziertem Detailgrad wichtige Charakteristika erhalten. Nach der Einführung von Grundbegriffen zu Modell, Maßstab und Mehrfachrepräsentationen werden theoretische Grundlagen zur Generalisierung von Karten sowie Verfahren zur 3D-Generalisierung betrachtet. Das erste vorgestellte Verfahren beschreibt die zellbasierte Generalisierung von virtuellen 3DStadtmodellen. Es erzeugt abstrakte Repräsentationen, die drastisch im Detailgrad reduziert sind, erhält dabei jedoch die wichtigsten Strukturen, z.B. das Infrastrukturnetz, Landmarkengebäude und Freiflächen. Dazu wird in einem vollautomatischen Verfahren das Eingabestadtmodell mithilfe des Infrastrukturnetzes in Zellen zerlegt. Pro Zelle wird abstrakte Gebäudegeometrie erzeugt, indem die enthaltenen Einzelgebäude mit ihren Eigenschaften aggregiert werden. Durch Berücksichtigung gewichteter Elemente des Infrastrukturnetzes können Zellblöcke auf verschiedenen Hierarchieebenen berechnet werden. Weiterhin werden Landmarken gesondert berücksichtigt: Anhand statistischer Abweichungen der Eigenschaften der Einzelgebäudes von den aggregierten Eigenschaften der Zelle werden Gebäude gegebenenfalls als initiale Landmarken identifiziert. Schließlich werden die Landmarkengebäude aus den generalisierten Blöcken mit Booleschen Operationen ausgeschnitten und realitätsnah dargestellt. Die Ergebnisse des Verfahrens lassen sich in interaktiver 3D-Darstellung einsetzen. Das Verfahren wird beispielhaft an verschiedenen Datensätzen demonstriert und bezüglich der Erweiterbarkeit diskutiert. Das zweite vorgestellte Verfahren ist ein Echtzeit-Rendering-Verfahren für geometrische Hervorhebung von Landmarken innerhalb eines virtuellen 3D-Stadtmodells: Landmarkenmodelle werden abhängig von der virtuellen Kameradistanz vergrößert, so dass sie innerhalb eines spezifischen Entfernungsintervalls sichtbar bleiben; dabei wird ihre Umgebung deformiert. In einem Vorverarbeitungsschritt wird eine Landmarkenhierarchie bestimmt, aus der die Entfernungsintervalle für die interaktive Darstellung abgeleitet werden. Zur Laufzeit wird anhand der virtuellen Kameraentfernung je Landmarke ein dynamischer Skalierungsfaktor bestimmt, der das Landmarkenmodell auf eine sichtbare Größe skaliert. Dabei wird der Skalierungsfaktor an den Intervallgrenzen durch kubisch interpoliert. Für Nicht-Landmarkengeometrie in der Umgebung wird die Deformation bezüglich einer begrenzten Menge von Landmarken berechnet. Die Eignung des Verfahrens wird beispielhaft anhand verschiedener Datensätze demonstriert und bezüglich der Erweiterbarkeit diskutiert. Das dritte vorgestellte Verfahren ist ein Echtzeit-Rendering-Verfahren, das eine abstrakte 3D-Isokonturen-Darstellung von virtuellen 3D-Geländemodellen erzeugt. Für das Geländemodell wird eine Stufenreliefdarstellung für eine Menge von nutzergewählten Höhenwerten erzeugt. Das Verfahren arbeitet ohne Vorverarbeitung auf Basis programmierbarer Grafikkarten-Hardware. Entsprechend erfolgt die Verarbeitung in der Prozesskette pro Geometrieknoten, pro Dreieck, und pro Bildfragment. Pro Geometrieknoten wird zunächst die Höhe auf den nächstliegenden Isowert quantisiert. Pro Dreieck wird dann die Konfiguration bezüglich der Isowerte der drei Geometrieknoten bestimmt. Anhand der Konfiguration wird eine geometrische Unterteilung vorgenommen, so dass ein Stufenausschnitt entsteht, der dem aktuellen Dreieck entspricht. Pro Bildfragment wird schließlich die finale Erscheinung definiert, z.B. anhand von Oberflächentextur, durch Schattierung und Höheneinfärbung. Die vielfältigen Einsatzmöglichkeiten werden mit verschiedenen Anwendungen demonstriert. Die Arbeit stellt Bausteine für die Erzeugung abstrakter Darstellungen von virtuellen 3D-Stadt und Landschaftsmodellen vor. Durch die Orientierung an kartographischer Bildsprache können die Nutzer auf bestehende Erfahrungen bei der Interpretation zurückgreifen. Dabei werden die charakteristischen Eigenschaften 3D geovirtueller Umgebungen berücksichtigt, indem z.B. kontinuierlicher Maßstab, Interaktion und Perspektive behandelt und diskutiert werden. KW - Generalisierung KW - virtuelle 3D-Stadtmodelle KW - Gebäudemodelle KW - Landmarken KW - Geländemodelle KW - generalization KW - virtual 3D city models KW - building models KW - landmarks KW - terrain models Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64117 ER - TY - THES A1 - Makarava, Natallia T1 - Bayesian estimation of self-similarity exponent T1 - Bayessche Schätzung des selbstählichen Exponenten N2 - Estimation of the self-similarity exponent has attracted growing interest in recent decades and became a research subject in various fields and disciplines. Real-world data exhibiting self-similar behavior and/or parametrized by self-similarity exponent (in particular Hurst exponent) have been collected in different fields ranging from finance and human sciencies to hydrologic and traffic networks. Such rich classes of possible applications obligates researchers to investigate qualitatively new methods for estimation of the self-similarity exponent as well as identification of long-range dependencies (or long memory). In this thesis I present the Bayesian estimation of the Hurst exponent. In contrast to previous methods, the Bayesian approach allows the possibility to calculate the point estimator and confidence intervals at the same time, bringing significant advantages in data-analysis as discussed in this thesis. Moreover, it is also applicable to short data and unevenly sampled data, thus broadening the range of systems where the estimation of the Hurst exponent is possible. Taking into account that one of the substantial classes of great interest in modeling is the class of Gaussian self-similar processes, this thesis considers the realizations of the processes of fractional Brownian motion and fractional Gaussian noise. Additionally, applications to real-world data, such as the data of water level of the Nile River and fixational eye movements are also discussed. N2 - Die Abschätzung des Selbstähnlichkeitsexponenten hat in den letzten Jahr-zehnten an Aufmerksamkeit gewonnen und ist in vielen wissenschaftlichen Gebieten und Disziplinen zu einem intensiven Forschungsthema geworden. Reelle Daten, die selbsähnliches Verhalten zeigen und/oder durch den Selbstähnlichkeitsexponenten (insbesondere durch den Hurst-Exponenten) parametrisiert werden, wurden in verschiedenen Gebieten gesammelt, die von Finanzwissenschaften über Humanwissenschaften bis zu Netzwerken in der Hydrologie und dem Verkehr reichen. Diese reiche Anzahl an möglichen Anwendungen verlangt von Forschern, neue Methoden zu entwickeln, um den Selbstähnlichkeitsexponenten abzuschätzen, sowie großskalige Abhängigkeiten zu erkennen. In dieser Arbeit stelle ich die Bayessche Schätzung des Hurst-Exponenten vor. Im Unterschied zu früheren Methoden, erlaubt die Bayessche Herangehensweise die Berechnung von Punktschätzungen zusammen mit Konfidenzintervallen, was von bedeutendem Vorteil in der Datenanalyse ist, wie in der Arbeit diskutiert wird. Zudem ist diese Methode anwendbar auf kurze und unregelmäßig verteilte Datensätze, wodurch die Auswahl der möglichen Anwendung, wo der Hurst-Exponent geschätzt werden soll, stark erweitert wird. Unter Berücksichtigung der Tatsache, dass der Gauß'sche selbstähnliche Prozess von bedeutender Interesse in der Modellierung ist, werden in dieser Arbeit Realisierungen der Prozesse der fraktionalen Brown'schen Bewegung und des fraktionalen Gauß'schen Rauschens untersucht. Zusätzlich werden Anwendungen auf reelle Daten, wie Wasserstände des Nil und fixierte Augenbewegungen, diskutiert. KW - Hurst-Exponent KW - Bayessche Statistik KW - fraktionale Brown'schen Bewegung KW - fraktionales Gauß'sches Rauschen KW - fixierte Augenbewegungen KW - Hurst exponent KW - Bayesian inference KW - fractional Brownian motion KW - fractional Gaussian noise KW - fixational eye movements Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64099 ER - TY - THES A1 - Borisova, Dimitriya T1 - Feedback active coatings based on mesoporous silica containers T1 - Rückkopplungsaktive Beschichtungen basierend auf mesoporösen Silika-Behältern N2 - Metalle werden oft während ihrer Anwendung korrosiven Bedingungen ausgesetzt, was ihre Alterungsbeständigkeit reduziert. Deswegen werden korrosionsanfällige Metalle, wie Aluminiumlegierungen mit Schutzbeschichtungen versehen, um den Korrosionsprozess aktiv oder passiv zu verhindern. Die klassischen Schutzbeschichtungen funktionieren als physikalische Barriere zwischen Metall und korrosiver Umgebung und bieten einen passiven Korrosionsschutz nur, wenn sie unbeschädigt sind. Im Gegensatz dazu kann die Korrosion auch im Fall einer Beschädigung mittels aktiver Schutzbeschichtungen gehemmt werden. Chromathaltige Beschichtungen bieten heutzutage den besten aktiven Korrosionsschutz für Aluminiumlegierungen. Aufgrund ihrer Giftigkeit wurden diese weltweit verboten und müssen durch neue umweltfreundliche Schutzbeschichtungen ersetzt werden. Ein potentieller Ersatz sind Schutzbeschichtungen mit integrierten Nano- und Mikrobehältern, die mit ungiftigem Inhibitor gefüllt sind. In dieser Arbeit werden die Entwicklung und Optimierung solcher aktiver Schutzbeschichtungen für die industriell wichtige Aluminiumlegierung AA2024-T3 dargestellt Mesoporöse Silika-Behälter wurden mit dem ungiftigen Inhibitor (2-Mercaptobenzothiazol) beladen und dann in die Matrix anorganischer (SiOx/ZrOx) oder organischer (wasserbasiert) Schichten dispergiert. Zwei Sorten von Silika-Behältern mit unterschiedlichen Größen (d ≈ 80 and 700 nm) wurden verwendet. Diese haben eine große spezifische Oberfläche (≈ 1000 m² g-1), eine enge Porengrößenverteilung mit mittlerer Porenweite ≈ 3 nm und ein großes Porenvolumen (≈ 1 mL g-1). Dank dieser Eigenschaften können große Inhibitormengen im Behälterinneren adsorbiert und gehalten werden. Die Inhibitormoleküle werden bei korrosionsbedingter Erhöhung des pH-Wertes gelöst und freigegeben. Die Konzentration, Position und Größe der integrierten Behälter wurden variiert um die besten Bedingungen für einen optimalen Korrosionsschutz zu bestimmen. Es wurde festgestellt, dass eine gute Korrosionsschutzleistung durch einen Kompromiss zwischen ausreichender Inhibitormenge und guten Barriereeigenschaften hervorgerufen wird. Diese Studie erweitert das Wissen über die wichtigsten Faktoren, die den Korrosionsschutz beeinflussen. Somit wurde die Entwicklung effizienter, aktiver Schutzbeschichtungen ermöglicht, die auf mit Inhibitor beladenen Behältern basieren. N2 - Metals are often used in environments that are conducive to corrosion, which leads to a reduction in their mechanical properties and durability. Coatings are applied to corrosion-prone metals such as aluminum alloys to inhibit the destructive surface process of corrosion in a passive or active way. Standard anticorrosive coatings function as a physical barrier between the material and the corrosive environment and provide passive protection only when intact. In contrast, active protection prevents or slows down corrosion even when the main barrier is damaged. The most effective industrially used active corrosion inhibition for aluminum alloys is provided by chromate conversion coatings. However, their toxicity and worldwide restriction provoke an urgent need for finding environmentally friendly corrosion preventing systems. A promising approach to replace the toxic chromate coatings is to embed particles containing nontoxic inhibitor in a passive coating matrix. This work presents the development and optimization of effective anticorrosive coatings for the industrially important aluminum alloy, AA2024-T3 using this approach. The protective coatings were prepared by dispersing mesoporous silica containers, loaded with the nontoxic corrosion inhibitor 2-mercaptobenzothiazole, in a passive sol-gel (SiOx/ZrOx) or organic water-based layer. Two types of porous silica containers with different sizes (d ≈ 80 and 700 nm, respectively) were investigated. The studied robust containers exhibit high surface area (≈ 1000 m² g-1), narrow pore size distribution (dpore ≈ 3 nm) and large pore volume (≈ 1 mL g-1) as determined by N2 sorption measurements. These properties favored the subsequent adsorption and storage of a relatively large amount of inhibitor as well as its release in response to pH changes induced by the corrosion process. The concentration, position and size of the embedded containers were varied to ascertain the optimum conditions for overall anticorrosion performance. Attaining high anticorrosion efficiency was found to require a compromise between delivering an optimal amount of corrosion inhibitor and preserving the coating barrier properties. This study broadens the knowledge about the main factors influencing the coating anticorrosion efficiency and assists the development of optimum active anticorrosive coatings doped with inhibitor loaded containers. KW - Korrosion KW - Beschichtungen KW - Aluminiumlegierung KW - Silika KW - Nanopartikel KW - mesoporös KW - corrosion KW - coating KW - aluminum alloy KW - silica nanoparticles KW - mesoporous Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63505 ER - TY - THES A1 - König, Hannes Jochen T1 - Operationalising sustainability impact assessment of land use scenarios in developing countries : a stakeholder-based approach with case studies in China, India, Indonesia, Kenya, and Tunisia T1 - Nachhaltigkeitsbewertung von Landnutzungsszenarien in Entwicklungsländern : ein Akteurs-basierter Ansatz mit Fallstudien in China, Indien, Indonesien, Kenia und Tunesien N2 - Growing populations, continued economic development, and limited natural resources are critical factors affecting sustainable development. These factors are particularly pertinent in developing countries in which large parts of the population live at a subsistence level and options for sustainable development are limited. Therefore, addressing sustainable land use strategies in such contexts requires that decision makers have access to evidence-based impact assessment tools that can help in policy design and implementation. Ex-ante impact assessment is an emerging field poised at the science-policy interface and is used to assess the potential impacts of policy while also exploring trade-offs between economic, social and environmental sustainability targets. The objective of this study was to operationalise the impact assessment of land use scenarios in the context of developing countries that are characterised by limited data availability and quality. The Framework for Participatory Impact Assessment (FoPIA) was selected for this study because it allows for the integration of various sustainability dimensions, the handling of complexity, and the incorporation of local stakeholder perceptions. FoPIA, which was originally developed for the European context, was adapted to the conditions of developing countries, and its implementation was demonstrated in five selected case studies. In each case study, different land use options were assessed, including (i) alternative spatial planning policies aimed at the controlled expansion of rural-urban development in the Yogyakarta region (Indonesia), (ii) the expansion of soil and water conservation measures in the Oum Zessar watershed (Tunisia), (iii) the use of land conversion and the afforestation of agricultural areas to reduce soil erosion in Guyuan district (China), (iv) agricultural intensification and the potential for organic agriculture in Bijapur district (India), and (v) land division and privatisation in Narok district (Kenya). The FoPIA method was effectively adapted by dividing the assessment into three conceptual steps: (i) scenario development; (ii) specification of the sustainability context; and (iii) scenario impact assessment. A new methodological approach was developed for communicating alternative land use scenarios to local stakeholders and experts and for identifying recommendations for future land use strategies. Stakeholder and expert knowledge was used as the main sources of information for the impact assessment and was complemented by available quantitative data. Based on the findings from the five case studies, FoPIA was found to be suitable for implementing the impact assessment at case study level while ensuring a high level of transparency. FoPIA supports the identification of causal relationships underlying regional land use problems, facilitates communication among stakeholders and illustrates the effects of alternative decision options with respect to all three dimensions of sustainable development. Overall, FoPIA is an appropriate tool for performing preliminary assessments but cannot replace a comprehensive quantitative impact assessment, and FoPIA should, whenever possible, be accompanied by evidence from monitoring data or analytical tools. When using FoPIA for a policy oriented impact assessment, it is recommended that the process should follow an integrated, complementary approach that combines quantitative models, scenario techniques, and participatory methods. N2 - Bevölkerungswachstum und wirtschaftliche Entwicklung in Kombination mit begrenzt verfügbaren, natürlichen Ressourcen sind kritische Faktoren für eine nachhaltige Entwicklung. Diese Situation ist besonders in Entwicklungsländern anzutreffen, in denen große Teile der Bevölkerung am Existenzminimum leben und es oft wenig Spielraum für eine nachhaltige Entwicklung gibt. Entscheidungsträger fragen daher verstärkt wissenschafts-basierte Instrumente zur Vorab- (ex-ante) Folgenabschätzung (Impact assessment) für die Konzeption und Umsetzung nachhaltiger Strategien nach. So genannte ex-ante Methoden zielen hierbei auf die Beurteilung der zukünftigen Folgen von Szenarien (z.B. alternative Politikmaßnahmen) und Konflikte zwischen ökonomischen, sozialen und ökologischen Nachhaltigkeitszielen ab. Ziel dieser Arbeit war es, die Folgenabschätzungen von Landnutzungsszenarien auf die nachhaltige Entwicklung in Entwicklungsländern zu ermöglichen. Eine besondere Schwierigkeit stellt dabei die oft mangelhafte Verfügbarkeit von Daten dar, die quantitative Analysen bzw. den Einsatz von computergestützten Modellen meist nur sehr begrenzt möglich macht. Um mit diesen Schwierigkeiten umzugehen, wurde die ursprünglich für die Europäische Union entwickelte ‚Framework for Participatory Impact Assessment‘ (FoPIA)-Methode an die Bedingungen in Entwicklungsländern angepasst und in fünf regionalen Fallstudien angewendet. Die analysierten Landnutzungsszenarien umfassten dabei (i) alternative Raumplanungsmaßnahmen zur kontrollierten Stadt-Land-Entwicklung in Yogyakarta, Indonesien; (ii) die Umsetzung von boden- und wasserkonservierenden Maßnahmen zur Verbesserung der landwirtschaftlichen Produktion im Oum Zessar Wassereinzugsgebiet, Tunesien; (iii) Landumwandlung und Aufforstungsmaßnahmen zur Eindämmung von Bodenerosion in Guyuan, China; (iv) landwirtschaftliche Intensivierung und Potenziale des ökologischen Landbaus in Bijapur, Indien; sowie (v) Landteilung und -privatisierung in Narok, Kenia. Die angepasste FoPIA Methode wurde in drei konzeptionelle Schritte unterteilt: (i) die Szenarienentwicklung, (ii) die Spezifikation des Nachhaltigkeitskontexts, und (iii) die Szenariofolgenabschätzung. Ein neuer methodischer Ansatz lag in der Entwicklung alternativer Landnutzungsszenarien mit regionalen Akteuren und auf der Ableitung von Handlungsempfehlungen für zukünftige Landnutzungsstrategien. Für die Szenario-folgenabschätzung wurde primär das Wissen regionaler Experten und Akteure genutzt und durch quantitative Daten, sofern verfügbar, ergänzt. Auf der Grundlage der in den fünf Regionen gewonnenen Erkenntnisse lässt sich schlussfolgern, dass die angepasste FoPIA Methode dazu geeignet ist, eine Szenariofolgenabschätzung zu strukturieren und ein hohes Maß an Transparenz zu gewährleisten. Sie ermöglicht kausale Zusammenhänge von Landnutzungsproblemen zu diagnostizieren, die Kommunikation zwischen unterschiedlichen Akteuren und Experten zu verbessern sowie mögliche Konflikte zwischen ökonomischen, sozialen und ökologischen Nachhaltigkeitszielen zu erkennen und darzustellen. Insgesamt sollte die FoPIA Methode jedoch nicht als isolierte Methode zur Folgenabschätzung verstanden werden, sondern, sofern die Datenverfügbarkeit dies zulässt, durch weiterführende Analysen ergänzt werden. Für die Anwendung der FoPIA Methode im Rahmen der Politikfolgenabschätzung wird ein integrierter, komplementärer Ansatz empfohlen, der quantitative Modelle, Szenariotechniken und partizipative Methoden kombiniert. KW - Landnutzung KW - nachhaltige Entwicklung KW - Folgenabschätzung KW - Entwicklungsländer KW - land use KW - sustainable development KW - impact assessment KW - developing countries Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63672 ER - TY - THES A1 - Schad, Julia T1 - Evolution of major histocompatibility complex genes in New World bats and their functional importance in parasite resistance and life-history decisions in the lesser bulldog bat (Noctilio albiventris) T1 - Evolution und Diversität von MHC Immungenen bei Fledermäusen und ihre funktionelle Bedeutung für fitness-relevante Merkmale bei einer neotropischen Fledermaus (Noctilio albiventris) N2 - Immune genes of the major histocompatibility complex (MHC) constitute a central component of the adaptive immune system and play an essential role in parasite resistance and associated life-history strategies. In addition to pathogen-mediated selection also sexual selection mechanisms have been identified as the main drivers of the typically-observed high levels of polymorphism in functionally important parts of the MHC. The recognition of the individual MHC constitution is presumed to be mediated through olfactory cues. Indeed, MHC genes are in physical linkage with olfactory receptor genes and alter the individual body odour. Moreover, they are expressed on sperm and trophoplast cells. Thus, MHC-mediated sexual selection processes might not only act in direct mate choice decisions, but also through cryptic processes during reproduction. Bats (Chiroptera) represent the second largest mammalian order and have been identified as important vectors of newly emerging infectious diseases affecting humans and wildlife. In addition, they are interesting study subjects in evolutionary ecology in the context of olfactory communication, mate choice and associated fitness benefits. Thus, it is surprising that Chiroptera belong to the least studied mammalian taxa in terms of their MHC evolution. In my doctoral thesis I aimed to gain insights in the evolution and diversity pattern of functional MHC genes in some of the major New World bat families by establishing species-specific primers through genome-walking into unknown flanking parts of familiar sites. Further, I took a free-ranging population of the lesser bulldog bat (Noctilio albiventris) in Panama as an example to understand the functional importance of the individual MHC constitution in parasite resistance and reproduction as well as the possible underlying selective forces shaping the observed diversity. My studies indicated that the typical MHC characteristics observed in other mammalian orders, like evidence for balancing and positive selection as well as recombination and gene conversion events, are also present in bats shaping their MHC diversity. I found a wide range of copy number variation of expressed DRB loci in the investigated species. In Saccopteryx bilineata, a species with a highly developed olfactory communication system, I found an exceptionally high number of MHC loci duplications generating high levels of variability at the individual level, which has never been described for any other mammalian species so far. My studies included for the first time phylogenetic relationships of MHC genes in bats and I found signs for a family-specific independent mode of evolution of duplicated genes, regardless whether the highly variable exon 2 (coding for the antigen binding region of the molecule) or more conserved exons (3, 4; encoding protein stabilizing parts) were considered indicating a monophyletic origin of duplicated loci within families. This result questions the general assumed pattern of MHC evolution in mammals where duplicated genes of different families usually cluster together suggesting that duplication occurred before speciation took place, which implies a trans-species mode of evolution. However, I found a trans-species mode of evolution within genera (Noctilio, Myotis) based on exon 2 signified by an intermingled clustering of DRB alleles. The gained knowledge on MHC sequence evolution in major New World bat families will facilitate future MHC investigations in this order. In the N. albiventris study population, the single expressed MHC class II DRB gene showed high sequence polymorphism, moderate allelic variability and high levels of population-wide heterozygosity. Whereas demographic processes had minor relevance in shaping the diversity pattern, I found clear evidence for parasite-mediated selection. This was evident by historical positive Darwinian selection maintaining diversity in the functionally important antigen binding sites, and by specific MHC alleles which were associated with low and high ectoparasite burden according to predictions of the ‘frequency dependent selection hypothesis’. Parasite resistance has been suggested to play an important role in mediating costly life history trade-offs leading to e.g. MHC- mediated benefits in sexual selection. The ‘good genes model’ predicts that males with a genetically well-adapted immune system in defending harmful parasites have the ability to allocate more resources to reproductive effort. I found support for this prediction since non-reproductive adult N. albiventris males carried more often an allele associated with high parasite loads, which differentiated them genetically from reproductively active males as well as from subadults, indicating a reduced transmission of this allele in subsequent generations. In addition, they suffered from increased ectoparasite burden which presumably reduced resources to invest in reproduction. Another sign for sexual selection was the observation of gender-specific difference in heterozygosity, with females showing lower levels of heterozygosity than males. This signifies that the sexes differ in their selection pressures, presumably through MHC-mediated molecular processes during reproduction resulting in a male specific heterozygosity advantage. My data make clear that parasite-mediated selection and sexual selection are interactive and operate together to form diversity at the MHC. Furthermore, my thesis is one of the rare studies contributing to fill the gap between MHC-mediated effects on co-evolutionary processes in parasite-host-interactions and on aspects of life-history evolution. N2 - Innerhalb des adaptiven Immunsystems spielen die Gene des MHC (Major Histocompatibility Complex) eine zentrale Rolle. Neben ihrer Funktion für die körpereigene Parasitenabwehr haben sie auch einen entscheidenden Einfluss auf damit verbundene ‚life-history’ Strategien. Typischerweise sind die funktional für die Pathogenerkennung wichtigen Genabschnitte hoch variabel, was evolutiv nicht nur durch die Vielfalt der Pathogene bedingt ist, sondern im Zuge der sexuellen Selektion durch entsprechende Partnerwahl gefördert wird. Dabei wird die individuelle MHC-Konstitution sehr wahrscheinlich über körpereigene Duftstoffe vermittelt, denn MHC Gene bestimmen nicht nur den individuellen Körpergeruch, sondern liegen in chromosomaler Kopplung mit olfaktorischen Rezeptorgenen. Außerdem werden sie auch auf Sperma- und Trophoplastenzellen exprimiert, so dass MHC-bedingte sexuelle Selektionsmechanismen nicht nur über die direkte Partnerwahl, sondern auch durch kryptische Mechanismen während der Fortpflanzung wirken können. Fledermäuse und Flughunde (Chiroptera) bilden die zweitgrößte Säugetiergruppe und gelten als wichtiges Reservoir und Überträger für den Menschen und andere Wildtiere hoch infektiöser Krankheiten. Innerhalb der evolutionären Ökologie sind sie außerdem auf Grund ihrer z.T. komplexen olfaktorischen Kommunikation während der Partner-wahl und den damit verbundenen fitness relevanten Vorteilen interessante Forschungsobjekte. In Anbetracht dessen ist es erstaunlich, dass bisher so gut wie nichts über den MHC in dieser Säugergruppe bekannt ist. Das Ziel meiner Dissertation war es, zum einen Einblicke in die Evolution und Diversität funktional wichtiger MHC Gene (MHC Klasse II DRB) bei Fledermäusen zu erhalten, und zum anderen zu untersuchen, inwieweit die individuelle MHC-Konstitution am Beispiel der kleinen Hasenmaulfledermaus (Noctilio albiventris) einen Einfluss auf Parasitenresistenz und Fortpflanzung hat und welche Selektionsmechanismen dabei für das entstandene genetische Diversitätsmuster verantwortlich sind. Meine Arbeit zeigt, dass Prozesse, die bei anderen Vertebratenordnungen das Diversitätsmuster am MHC hervorrufen, wie balancierende und positive Selektion, Rekombination und Genkonversion ebenfalls für Fledermäuse zutreffen. In der Anzahl exprimierter DRB loci unterscheiden sich die untersuchten Fledermausarten allerdings beträchtlich. Bemerkenswert ist die extrem hohe Anzahl DRB loci bei Saccopteryx bilineata, die in dieser Ausprägung noch bei keiner anderen Säugetierart beschrieben wurde, einer Fledermaus mit einem hoch entwickelten olfaktorischen Kommunikations-system. Die hier erstmals durchgeführten phylogenetischen Untersuchungen zeigen, dass sich anders als für die meisten anderen Säugetiergruppen beschrieben, die duplizierten DRB Loci unabhängig voneinander entwickelt haben. Dieser mono-phyletische Ursprung duplizierter Loci innerhalb von Fledermausfamilien bestätigte sich für alle Bereiche des Genes: dem hochvariablen Exon 2, das für den funktional entscheidenden Pathogen-bindenden Bereich des Proteins kodiert, sowie für Exon 3 und 4, die für die Molekülstruktur erhaltende Bereiche des Proteins kodieren. Innerhalb der Gattungen (Noctilio, Myotis), basierend auf Exon 2, fand ich das für andere Säugergruppen typische Bild eines ‚trans-species polymorphism’, bei dem MHC-Allele von verschiedenen Arten sich untereinander ähnlicher sein können als Allele der gleichen Art. Meine Ergebnisse sind ein wichtiger Beitrag zum Verständnis der MHC Evolution in der Gruppe der Fledermäuse und liefern hilfreiche Kenntnisse für zukünftige Studien zum MHC in dieser Säugetierordnung. Meine Studien an einer frei lebenden Population der kleinen Hasenmaulfledermaus zeigten dass der exprimierte DRB Locus typische Anzeichen pathogenbedingter aber auch sexueller Selektionsmechanismen zeigt. Ich fand eine ausgeprägte populations-weite Heterozygotie, positive darwinsche Selektion, die den Polymorphismus in Codons die direkt an der Pathogenerkennung beteiligt sind erhält, sowie spezifische Allele die entweder mit einer erhöhten oder einer geringen Parasitenbelastung einhergehen, entsprechend den Annahmen der ‚Frequenz-abhängigen Selektions-Hypothese’. Die individuelle Parasitenresistenz gilt als ein wichtiger Faktor um ressourceabhängige ‚life-history’ Strategien auszuloten. Vor allem Männchen mit einem effektiven Immunsystem, sollten mehr Energien für die Fortpflanzung zur Verfügung haben (‚good-genes model’). Meine Daten bestätigen diese Annahme, Männchen die stärker parasitisiert waren, waren weniger häufig reproduktiv aktiv und trugen häufiger ein DRB-Allele das mit erhöhter Parasitenbelastung einherging. Genetisch unterschieden sie sich darin nicht nur von den reproduktiv aktiven Männchen der Population sondern auch von den Jungtieren. Die Jungtiere trugen zudem häufiger ein für die Parasitenabwehr vorteilhaftes Allel. Die Ergebnisse zeigen dass die individuelle MHC-Konstitution einen nicht zu unterschätzenden Einfluss auch auf den Reproduktionserfolg eines Männchens haben kann und vorteilhafte Allele sich bereits in nachfolgenden Generationen durchsetzen. Meine Doktorarbeit gehört damit zu einer der seltenen Studien, die nicht nur zeigen konnte inwieweit der MHC an co-evolutionären Prozessen der Parasit-Wirt-Interaktion beteiligt ist, sondern dass er darüber hinaus auch direkt für die individuelle ‚life-history’ Entwicklung von Bedeutung ist. KW - MHC Klasse II KW - DRB Evolution KW - Fledermäuse KW - Chiroptera KW - Parasit KW - Fortpflanzung KW - Gute-Gene KW - Noctilio albiventris KW - MHC polymorphism KW - DRB evolution KW - selection KW - Chiroptera KW - ectoparasites KW - reproduction KW - good-genes-model KW - life history Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63513 ER - TY - THES A1 - Niedermayer, Thomas T1 - On the depolymerization of actin filaments T1 - Über die Depolymerisation von Aktinfilamenten N2 - Actin is one of the most abundant and highly conserved proteins in eukaryotic cells. The globular protein assembles into long filaments, which form a variety of different networks within the cytoskeleton. The dynamic reorganization of these networks - which is pivotal for cell motility, cell adhesion, and cell division - is based on cycles of polymerization (assembly) and depolymerization (disassembly) of actin filaments. Actin binds ATP and within the filament, actin-bound ATP is hydrolyzed into ADP on a time scale of a few minutes. As ADP-actin dissociates faster from the filament ends than ATP-actin, the filament becomes less stable as it grows older. Recent single filament experiments, where abrupt dynamical changes during filament depolymerization have been observed, suggest the opposite behavior, however, namely that the actin filaments become increasingly stable with time. Several mechanisms for this stabilization have been proposed, ranging from structural transitions of the whole filament to surface attachment of the filament ends. The key issue of this thesis is to elucidate the unexpected interruptions of depolymerization by a combination of experimental and theoretical studies. In new depolymerization experiments on single filaments, we confirm that filaments cease to shrink in an abrupt manner and determine the time from the initiation of depolymerization until the occurrence of the first interruption. This duration differs from filament to filament and represents a stochastic variable. We consider various hypothetical mechanisms that may cause the observed interruptions. These mechanisms cannot be distinguished directly, but they give rise to distinct distributions of the time until the first interruption, which we compute by modeling the underlying stochastic processes. A comparison with the measured distribution reveals that the sudden truncation of the shrinkage process neither arises from blocking of the ends nor from a collective transition of the whole filament. Instead, we predict a local transition process occurring at random sites within the filament. The combination of additional experimental findings and our theoretical approach confirms the notion of a local transition mechanism and identifies the transition as the photo-induced formation of an actin dimer within the filaments. Unlabeled actin filaments do not exhibit pauses, which implies that, in vivo, older filaments become destabilized by ATP hydrolysis. This destabilization can be identified with an acceleration of the depolymerization prior to the interruption. In the final part of this thesis, we theoretically analyze this acceleration to infer the mechanism of ATP hydrolysis. We show that the rate of ATP hydrolysis is constant within the filament, corresponding to a random as opposed to a vectorial hydrolysis mechanism. N2 - Aktin ist eines der am häufigsten vorkommenden und am stärksten konservierten Proteine in eukaryotischen Zellen. Dieses globuläre Protein bildet lange Filamente, die zu einer großen Vielfalt von Netzwerken innerhalb des Zellskeletts führen. Die dynamische Reorganisation dieser Netzwerke, die entscheidend für Zellbewegung, Zelladhäsion, und Zellteilung ist, basiert auf der Polymerisation (dem Aufbau) und der Depolymerisation (dem Abbau) von Aktinfilamenten. Aktin bindet ATP, welches innerhalb des Filaments auf einer Zeitskala von einigen Minuten in ADP hydrolysiert wird. Da ADP-Aktin schneller vom Filamentende dissoziiert als ATP-Aktin, sollte ein Filament mit der Zeit instabiler werden. Neuere Experimente, in denen abrupte dynamische Änderungen während der Filamentdepolymerisation beobachtet wurden, deuten jedoch auf ein gegenteiliges Verhalten hin: Die Aktinfilamente werden mit der Zeit zunehmend stabiler. Mehrere Mechanismen für diese Stabilisierung wurden bereits vorgeschlagen, von strukturellen Übergängen des gesamten Filaments bis zu Wechselwirkungen der Filamentenden mit dem experimentellen Aufbau. Das zentrale Thema der vorliegenden Dissertation ist die Aufklärung der unerwarteten Unterbrechungen der Depolymerisation. Dies geschieht durch eine Kombination von experimentellen und theoretischen Untersuchungen. Mit Hilfe neuer Depolymerisationexperimente mit einzelnen Filamenten bestätigen wir zunächst, dass die Filamente plötzlich aufhören zu schrumpfen und bestimmen die Zeit, die von der Einleitung der Depolymerisation bis zum Auftreten der ersten Unterbrechung vergeht. Diese Zeit unterscheidet sich von Filament zu Filament und stellt eine stochastische Größe dar. Wir untersuchen daraufhin verschiedene hypothetische Mechanismen, welche die beobachteten Unterbrechungen verursachen könnten. Die Mechanismen können experimentell nicht direkt unterschieden werden, haben jedoch verschiedene Verteilungen für die Zeit bis zur ersten Unterbrechung zur Folge. Wir berechnen die jeweiligen Verteilungen, indem wir die zugrundeliegenden stochastischen Prozesse modellieren. Ein Vergleich mit der gemessenen Verteilung zeigt, dass der plötzliche Abbruch des Depolymerisationsprozesses weder auf eine Blockade der Enden, noch auf einen kollektiven strukturellen Übergang des gesamten Filaments zurückzuführen ist. An Stelle dessen postulieren wir einen lokalen Übergangsprozess, der an zufälligen Stellen innerhalb des Filaments auftritt. Die Kombination von weiteren experimentellen Ergebnissen und unserem theoretischen Ansatz bestätigt die Vorstellung eines lokalen Übergangsmechanismus und identifiziert den Übergang als die photo-induzierte Bildung eines Aktindimers innerhalb des Filaments. Nicht fluoreszenzmarkierte Aktinfilamente zeigen keine Unterbrechungen, woraus folgt, dass ältere Filamente in vivo durch die ATP-Hydrolyse destabilisiert werden. Die Destabilisierung zeigt sich durch die Beschleunigung der Depolymerisation vor der Unterbrechung. Im letzten Teil der vorliegenden Arbeit untersuchen wir diese Beschleunigung mit theoretischen Methoden, um auf den Mechanismus der ATP-Hydrolyse zu schließen. Wir zeigen, dass die Hydrolyserate von ATP innerhalb des Filaments konstant ist, was dem sogenannten zufälligen Hydrolysemechanismus entspricht und im Gegensatz zum sogenannten vektoriellen Mechanismus steht. KW - Aktinfilamente KW - Depolymerisation KW - stochastische Prozesse KW - Fluoreszenzmikroskopie KW - ATP-Hydrolyse KW - actin filaments KW - depolymerization KW - stochastic processes KW - fluorescence microscopy KW - ATP hydrolysis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63605 ER - TY - THES A1 - Mulansky, Mario T1 - Chaotic diffusion in nonlinear Hamiltonian systems T1 - Chaotische Diffusion in nichtlinearen Hamiltonschen Systemen N2 - This work investigates diffusion in nonlinear Hamiltonian systems. The diffusion, more precisely subdiffusion, in such systems is induced by the intrinsic chaotic behavior of trajectories and thus is called chaotic diffusion''. Its properties are studied on the example of one- or two-dimensional lattices of harmonic or nonlinear oscillators with nearest neighbor couplings. The fundamental observation is the spreading of energy for localized initial conditions. Methods of quantifying this spreading behavior are presented, including a new quantity called excitation time. This new quantity allows for a more precise analysis of the spreading than traditional methods. Furthermore, the nonlinear diffusion equation is introduced as a phenomenologic description of the spreading process and a number of predictions on the density dependence of the spreading are drawn from this equation. Two mathematical techniques for analyzing nonlinear Hamiltonian systems are introduced. The first one is based on a scaling analysis of the Hamiltonian equations and the results are related to similar scaling properties of the NDE. From this relation, exact spreading predictions are deduced. Secondly, the microscopic dynamics at the edge of spreading states are thoroughly analyzed, which again suggests a scaling behavior that can be related to the NDE. Such a microscopic treatment of chaotically spreading states in nonlinear Hamiltonian systems has not been done before and the results present a new technique of connecting microscopic dynamics with macroscopic descriptions like the nonlinear diffusion equation. All theoretical results are supported by heavy numerical simulations, partly obtained on one of Europe's fastest supercomputers located in Bologna, Italy. In the end, the highly interesting case of harmonic oscillators with random frequencies and nonlinear coupling is studied, which resembles to some extent the famous Discrete Anderson Nonlinear Schroedinger Equation. For this model, a deviation from the widely believed power-law spreading is observed in numerical experiments. Some ideas on a theoretical explanation for this deviation are presented, but a conclusive theory could not be found due to the complicated phase space structure in this case. Nevertheless, it is hoped that the techniques and results presented in this work will help to eventually understand this controversely discussed case as well. N2 - Diese Arbeit beschäftigt sich mit dem Phänomen der Diffusion in nichtlinearen Systemen. Unter Diffusion versteht man normalerweise die zufallsmä\ss ige Bewegung von Partikeln durch den stochastischen Einfluss einer thermodynamisch beschreibbaren Umgebung. Dieser Prozess ist mathematisch beschrieben durch die Diffusionsgleichung. In dieser Arbeit werden jedoch abgeschlossene Systeme ohne Einfluss der Umgebung betrachtet. Dennoch wird eine Art von Diffusion, üblicherweise bezeichnet als Subdiffusion, beobachtet. Die Ursache dafür liegt im chaotischen Verhalten des Systems. Vereinfacht gesagt, erzeugt das Chaos eine intrinsische Pseudo-Zufälligkeit, die zu einem gewissen Grad mit dem Einfluss einer thermodynamischen Umgebung vergleichbar ist und somit auch diffusives Verhalten provoziert. Zur quantitativen Beschreibung dieses subdiffusiven Prozesses wird eine Verallgemeinerung der Diffusionsgleichung herangezogen, die Nichtlineare Diffusionsgleichung. Desweiteren wird die mikroskopische Dynamik des Systems mit analytischen Methoden untersucht, und Schlussfolgerungen für den makroskopischen Diffusionsprozess abgeleitet. Die Technik der Verbindung von mikroskopischer Dynamik und makroskopischen Beobachtungen, die in dieser Arbeit entwickelt wird und detailliert beschrieben ist, führt zu einem tieferen Verständnis von hochdimensionalen chaotischen Systemen. Die mit mathematischen Mitteln abgeleiteten Ergebnisse sind darüber hinaus durch ausführliche Simulationen verifiziert, welche teilweise auf einem der leistungsfähigsten Supercomputer Europas durchgeführt wurden, dem sp6 in Bologna, Italien. Desweiteren können die in dieser Arbeit vorgestellten Erkenntnisse und Techniken mit Sicherheit auch in anderen Fällen bei der Untersuchung chaotischer Systeme Anwendung finden. KW - Chaos KW - Diffusion KW - Thermalisierung KW - Energieausbreitung KW - chaos KW - diffusion KW - thermalization KW - energy spreading Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63180 ER - TY - THES A1 - Zenichowski, Karl T1 - Quantum dynamical study of Si(100) surface-mounted, STM-driven switches at the atomic and molecular scale T1 - Quantendynamische Untersuchung von Si(100) Oberflächen-gebundenen, STM-gesteuerten atomaren und molekularen Schaltern N2 - The aim of this thesis is the quantum dynamical study of two examples of scanning tunneling microscope (STM)-controllable, Si(100)(2x1) surface-mounted switches of atomic and molecular scale. The first example considers the switching of single H-atoms between two dangling-bond chemisorption sites on a Si-dimer of the Si(100) surface (Grey et al., 1996). The second system examines the conformational switching of single 1,5-cyclooctadiene molecules chemisorbed on the Si(100) surface (Nacci et al., 2008). The temporal dynamics are provided by the propagation of the density matrix in time via an according set of equations of motion (EQM). The latter are based on the open-system density matrix theory in Lindblad form. First order perturbation theory is used to evaluate those transition rates between vibrational levels of the system part. In order to account for interactions with the surface phonons, two different dissipative models are used, namely the bilinear, harmonic and the Ohmic bath model. IET-induced vibrational transitions in the system are due to the dipole- and the resonance-mechanism. A single surface approach is used to study the influence of dipole scattering and resonance scattering in the below-threshold regime. Further, a second electronic surface was included to study the resonance-induced switching in the above-threshold regime. Static properties of the adsorbate, e.g., potentials and dipole function and potentials, are obtained from quantum chemistry and used within the established quantum dynamical models. N2 - Die vorliegende Doktorarbeit befasst sich mit kleinsten schaltbaren Einheiten in Form des Moleküls Cyclooctadien (COD) und dem Wasserstoff-Atom, die chemisch fest mit einer Oberfläche aus kristallinem Silizium verbunden sind. Jeder dieser Schalter kann mittels einer winzigen Spitze, eines so genannten Rastertunnelmikroskops (RTM), von atomarem Durchmesser in zwei unterscheidbare und stabile Schaltpositionen gebracht werden. Dabei besteht das Schalten entweder in einer Änderung der Geometrie des molekularen Schalters oder im Brechen und Neu-knüpfen chemischer Bindungen. Dabei ist es entscheidend, dass durch die geringe Grösse dieser Schalter eine hohe Anzahl dieser Schalter auf einer Oberfläche deponiert werden können. Mit der in den Schaltern speicherbaren Informationen an oder aus, 0 oder 1 ließen sich sehr hohe Speicherkapazitäten erreichen. Vor einer Anwendung dieser Art ist es wichtig zunächst ein grundlegendes Verständnis der Schaltprozesse auf der Oberfläche zu gewinnen. Wenn alle wesentlichen Faktoren berücksichtigt wurden und der Mechanismus des Schaltens verstanden ist, kann das Ergebnis des Experiments mit Hilfe eines theoretischen Modells vorhergesagt werden. Für die Handhabbarkeit muss sich das theoretisches Modell auf wesentliche Einflüsse beschränken und diese so einfach wie möglich beschreiben. So wurde die simultane Bewegung der 12 Atome des COD in die Bewegung eines gemittelten Massenpunktes entlang von einer oder von zwei räumlichen Freiheitsgraden übersetzt. Dabei kann der Massenpunkt im klassischen Bild anschaulich als eine rollende Kugel beschrieben werden, die in einer Seite einer Doppelmulde gefangen ist. Die Kugel kann durch äußere Anregung zum Schwingen gebracht werden und schließlich über eine Barriere in die benachbarte Mulde schalten. Nun muss die Schwingung der Kugel gebremst werden, um ein Zurück-Schwingen der Kugel zu verhindern. Die Anregung erfolgt durch elektrische Ladungen die von der Spitze des RTM zur Oberfläche wandern oder durch eine schwingende, d.h. warme Oberfläche. Das Bremsen wird über die elastische Bindung zu einer kalten Oberfläche vermittelt. Um Quanteneffekte wie das Tunneln der Kugel durch die Barriere zu beschreiben wurde die Kugel durch ein Wellenpaket beschrieben und dessen Aufenthaltswahrscheinlichkeit in der Doppelmulde untersucht. Im Fall des Wasserstoffatoms war die experimentelle Prüfung des entworfenen Modells für ein Schalten bei starkem Strom leider nicht möglich. Für das COD Molekül konnte jedoch nicht nur die Übereinstimmung mit den experimentellen Befunden, sondern im Fall des Schaltens in Abhängigkeit der Oberflächentemperatur auch die Vorhersagefähigkeit des Modells unter Beweis gestellt werden. KW - Kerndynamik KW - molekulare Schalter KW - Nanotechnologie KW - STM KW - Oberflächen KW - Quantum dynamics KW - molecular switches KW - nanotechnology KW - STM KW - surfaces Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62156 ER - TY - THES A1 - Chen, Xiaoming T1 - Two-dimensional constrained anisotropic inversion of magnetotelluric data T1 - Zweidimensionale constrained anisotrope Inversion von magnetotellurischen Daten N2 - Tectonic and geological processes on Earth often result in structural anisotropy of the subsurface, which can be imaged by various geophysical methods. In order to achieve appropriate and realistic Earth models for interpretation, inversion algorithms have to allow for an anisotropic subsurface. Within the framework of this thesis, I analyzed a magnetotelluric (MT) data set taken from the Cape Fold Belt in South Africa. This data set exhibited strong indications for crustal anisotropy, e.g. MT phases out of the expected quadrant, which are beyond of fitting and interpreting with standard isotropic inversion algorithms. To overcome this obstacle, I have developed a two-dimensional inversion method for reconstructing anisotropic electrical conductivity distributions. The MT inverse problem represents in general a non-linear and ill-posed minimization problem with many degrees of freedom: In isotropic case, we have to assign an electrical conductivity value to each cell of a large grid to assimilate the Earth's subsurface, e.g. a grid with 100 x 50 cells results in 5000 unknown model parameters in an isotropic case; in contrast, we have the sixfold in an anisotropic scenario where the single value of electrical conductivity becomes a symmetric, real-valued tensor while the number of the data remains unchanged. In order to successfully invert for anisotropic conductivities and to overcome the non-uniqueness of the solution of the inverse problem it is necessary to use appropriate constraints on the class of allowed models. This becomes even more important as MT data is not equally sensitive to all anisotropic parameters. In this thesis, I have developed an algorithm through which the solution of the anisotropic inversion problem is calculated by minimization of a global penalty functional consisting of three entries: the data misfit, the model roughness constraint and the anisotropy constraint. For comparison, in an isotropic approach only the first two entries are minimized. The newly defined anisotropy term is measured by the sum of the square difference of the principal conductivity values of the model. The basic idea of this constraint is straightforward. If an isotropic model is already adequate to explain the data, there is no need to introduce electrical anisotropy at all. In order to ensure successful inversion, appropriate trade-off parameters, also known as regularization parameters, have to be chosen for the different model constraints. Synthetic tests show that using fixed trade-off parameters usually causes the inversion to end up by either a smooth model with large RMS error or a rough model with small RMS error. Using of a relaxation approach on the regularization parameters after each successful inversion iteration will result in smoother inversion model and a better convergence. This approach seems to be a sophisticated way for the selection of trade-off parameters. In general, the proposed inversion method is adequate for resolving the principal conductivities defined in horizontal plane. Once none of the principal directions of the anisotropic structure is coincided with the predefined strike direction, only the corresponding effective conductivities, which is the projection of the principal conductivities onto the model coordinate axes direction, can be resolved and the information about the rotation angles is lost. In the end the MT data from the Cape Fold Belt in South Africa has been analyzed. The MT data exhibits an area (> 10 km) where MT phases over 90 degrees occur. This part of data cannot be modeled by standard isotropic modeling procedures and hence can not be properly interpreted. The proposed inversion method, however, could not reproduce the anomalous large phases as desired because of losing the information about rotation angles. MT phases outside the first quadrant are usually obtained by different anisotropic anomalies with oblique anisotropy strike. In order to achieve this challenge, the algorithm needs further developments. However, forward modeling studies with the MT data have shown that surface highly conductive heterogeneity in combination with a mid-crustal electrically anisotropic zone are required to fit the data. According to known geological and tectonic information the mid-crustal zone is interpreted as a deep aquifer related to the fractured Table Mountain Group rocks in the Cape Fold Belt. N2 - Tektonische und geologische Prozesse verursachen häufig eine strukturelle Anisotropie des Untergrundes, welche von verschiedenen geophysikalischen Methoden beobachtet werden kann. Zur Erstellung und Interpretation geeigneter, realistischer Modelle der Erde sind Inversionsalgorithmen notwendig, die einen anisotropen Untergrund einbeziehen können. Für die vorliegende Arbeit habe ich einen magnetotellurischen (MT) Datensatz vom Cape Fold Gürtel in Südafrika untersucht. Diese Daten weisen auf eine ausgeprägte Anisotropie der Kruste hin, da z.B. die MT Phasen außerhalb des erwarteten Quadranten liegen und nicht durch standardisierte isotrope Inversionsalgorithmen angepasst und ausgewertet werden können. Um dieses Problem zu beheben, habe ich eine zweidimensionale Inversionsmethode entwickelt, welche eine anisotrope elektrische Leitfähigkeitsverteilungen in den Modellen zulässt. Die MT Inversion ist im allgemeinen ein nichtlineares, schlecht gestelltes Minimierungsproblem mit einer hohen Anzahl an Freiheitsgraden. Im isotropen Fall wird jeder Gitterzelle eines Modells ein elektrischer Leitfähigkeitswert zugewiesen um den Erduntergrund nachzubilden. Ein Modell mit beispielsweise 100 x 50 Zellen besitzt 5000 unbekannte Modellparameter. Im Gegensatz dazu haben wir im anisotropen Fall die sechsfache Anzahl, da hier aus dem einfachen Zahlenwert der elektrischen Leitfähigkeit ein symmetrischer, reellwertiger Tensor wird, wobei die Anzahl der Daten gleich bleibt. Für die erfolgreiche Inversion von anisotropen Leitfähigkeiten und um die Nicht-Eindeutigkeit der Lösung des inversen Problems zu überwinden, ist eine geeignete Einschränkung der möglichen Modelle absolut notwendig. Dies wird umso wichtiger, da die Sensitivität von MT Daten nicht für alle Anisotropieparameter gleich ist. In der vorliegenden Arbeit habe ich einen Algorithmus entwickelt, welcher die Lösung des anisotropen Inversionsproblems unter Minimierung einer globalen Straffunktion berechnet. Diese besteht aus drei Teilen: der Datenanpassung, den Zusatzbedingungen an die Glätte des Modells und die Anisotropie. Im Gegensatz dazu werden beim isotropen Fall nur die ersten zwei Parameter minimiert. Der neu definierte Anisotropieterm wird mit Hilfe der Summe der quadratischen Abweichung der Hauptleitfähigkeitswerte des Modells gemessen. Die grundlegende Idee dieser Zusatzbedingung ist einfach. Falls ein isotropes Modell die Daten ausreichend gut anpassen kann, wird keine elektrische Anisotropie zusätzlich in das Modell eingefügt. Um eine erfolgreiche Inversion zu garantieren müssen geeignete Regularisierungsparameter für die verschiedenen Nebenbedingungen an das Modell gewählt werden. Tests mit synthetischen Modellen zeigen, dass bei festgesetzten Regularisierungsparametern die Inversion meistens entweder in einem glatten Modell mit hohem RMS Fehler oder einem groben Modell mit kleinem RMS Fehler endet. Die Anwendung einer Relaxationsbedingung auf die Regularisierung nach jedem Iterationsschritt resultiert in glatteren Inversionsmodellen und einer höheren Konvergenz und scheint ein ausgereifter Weg zur Wahl der Parameter zu sein. Die vorgestellte Inversionsmethode ist im allgemeinen in der Lage die Hauptleitfähigkeiten in der horizontalen Ebene zu finden. Wenn keine der Hauptrichtungen der Anisotropiestruktur mit der vorgegebenen Streichrichtung übereinstimmt, können nur die dazugehörigen effektiven Leitfähigkeiten, welche die Projektion der Hauptleitfähigkeiten auf die Koordinatenachsen des Modells darstellen, aufgelöst werden. Allerdings gehen die Informationen über die Rotationswinkel verloren. Am Ende meiner Arbeit werden die MT Daten des Cape Fold Gürtels in Südafrika analysiert. Die MT Daten zeigen in einem Abschnitt des Messprofils (> 10 km) Phasen über 90 Grad. Dieser Teil der Daten kann nicht mit herkömmlichen isotropen Modellierungsverfahren angepasst und daher mit diesen auch nicht vollständig ausgewertet werden. Die vorgestellte Inversionsmethode konnte die außergewöhnlich hohen Phasenwerte nicht wie gewünscht im Inversionsergebnis erreichen, was mit dem erwähnten Informationsverlust der Rotationswinkel begründet werden kann. MT Phasen außerhalb des ersten Quadranten können für gewöhnlich bei Anomalien mit geneigter Streichrichtung der Anisotropie gemessen werden. Um diese auch in den Inversionsergebnissen zu erreichen ist eine Weiterentwicklung des Algorithmus notwendig. Vorwärtsmodellierungen des MT Datensatzes haben allerdings gezeigt, dass eine hohe Leitfähigkeitsheterogenität an der Oberfläche in Kombination mit einer Zone elektrischer Anisotropie in der mittleren Kruste notwendig sind um die Daten anzupassen. Aufgrund geologischer und tektonischer Informationen kann diese Zone in der mittleren Kruste als tiefer Aquifer interpretiert werden, der im Zusammenhang mit den zerrütteten Gesteinen der Table Mountain Group des Cape Fold Gürtels steht. KW - Magnetotellurik KW - Anisotrope Inversion KW - Regularisierung KW - Anisotropie der Leitfähigkeit KW - magnetotelluric KW - anisotropic inversion KW - regularization KW - conductivity anisotropy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63163 ER - TY - THES A1 - Ohliger, Matthias T1 - Characterizing and measuring properties of continuous-variable quantum states T1 - Charakterisierung und Messung der Eigenschaften von Quantenzuständen mit kontinuierlichen Variablen N2 - We investigate properties of quantum mechanical systems in the light of quantum information theory. We put an emphasize on systems with infinite-dimensional Hilbert spaces, so-called continuous-variable systems'', which are needed to describe quantum optics beyond the single photon regime and other Bosonic quantum systems. We present methods to obtain a description of such systems from a series of measurements in an efficient manner and demonstrate the performance in realistic situations by means of numerical simulations. We consider both unconditional quantum state tomography, which is applicable to arbitrary systems, and tomography of matrix product states. The latter allows for the tomography of many-body systems because the necessary number of measurements scales merely polynomially with the particle number, compared to an exponential scaling in the generic case. We also present a method to realize such a tomography scheme for a system of ultra-cold atoms in optical lattices. Furthermore, we discuss in detail the possibilities and limitations of using continuous-variable systems for measurement-based quantum computing. We will see that the distinction between Gaussian and non-Gaussian quantum states and measurements plays an crucial role. We also provide an algorithm to solve the large and interesting class of naturally occurring Hamiltonians, namely frustration free ones, efficiently and use this insight to obtain a simple approximation method for slightly frustrated systems. To achieve this goals, we make use of, among various other techniques, the well developed theory of matrix product states, tensor networks, semi-definite programming, and matrix analysis. N2 - Die stürmische Entwicklung der Quanteninformationstheorie in den letzten Jahren brachte einen neuen Blickwinkel auf quantenmechanische Probleme. Insbesondere die fundamentale Eigenschaft der Verschränkung von Quantenzuständen spielt hierbei eine Schlüsselrolle. Einstein, Podolsky und Rosen haben 1935 versucht die Unvollständigkeit der Quantenmechanik zu demonstrieren, indem sie zeigten, dass sie keine lokale, realistische Therie ist und der Ausgang einer Messung an einem Ort von Messungen abhängen kann, die an beliebig weit entfernten Orten gemacht wurden. John Bell stellte 1964 eine, später nach ihm benannte, Ungleichung auf, die eine Grenze an mögliche Korrelationen von Messergebnissen in lokalen, realistischen Theorien gibt. Die Vorhersagen der Quatenmechanik verletzen diese Ungleichung, eine Tatsache, die 1981 von Alain Aspect und anderen auch experimentell bestätigt wurde. Solche nicht-lokalen Quantenzustände werden verschränkt'' genannt. In neuerer Zeit wurde Verschränkung nicht mehr nur als mysteriöse Eigenschaft der Quantenmechanik sondern auch als Resource für Aufgaben der Informationsverarbeitung gesehen. Ein Computer, der sich diese Eigenschaften der Quantenmechanik zu nutze macht, ein sogenannter Quantencomputer, würde es erlauben gewisse Aufgaben schnell zu lösen für die normale'' Computer zu lange brauchen. Das wichtigste Beispiel hierfür ist die Zerlegung von großen Zahlen in ihre Primfaktoren, für die Shor 1993 einen Quantenalgorithmus präsentierte. In dieser Arbeit haben wir uns mit den Eigenschaften von Quantensystemen, die durch sogenannte kontinuierliche Variablen beschrieben werden, beschäftigt. Diese sind nicht nur theoretisch sonder auch experimentell von besonderem Interesse, da sie quantenoptische Systeme beschreiben, die sich verhältnismäßig leicht im Labor präparieren, manipulieren und messen lassen. Wenn man eine vollständige Beschreibung eines Quantenzustandes erhalten will, braucht man, auf Grund der Heisenberg'schen Unschärferelation, mehrere Kopien von ihm an denen man dann Messungen durchführt. Wir haben eine Methode, compressed-sensing genannt, eingeführt um die Anzahl der nötigen Messungen substantiell zu reduzieren. Wir haben die theoretische Effizienz dieser Methode bewiesen und durch numerische Simulationen auch ihre Praktikabilität demonstriert. Desweiteren haben wir beschrieben, wie man compressed-sensing für die schon erwähnten optischen Systemen sowie für ultrakalte Atome experimentell realisieren kann. Ein zweites Hauptthema dieser Arbeit war messbasiertes Quantenrechnen. Das Standardmodell des Quantenrechnens basiert auf sogenannten Gattern, die eine genaue Kontrolle der Wechselwirkung zwischen den Bestandteilen des Quantencomputers erfordern. Messbasiertes Quantenrechnen hingegen kommt mit der Präparation eines geeigneten Quantenzustands, Resource genannt, gefolgt von einfachen Messungen auf diesem Zustand aus. Wir haben gezeigt, dass Systeme mit kontinuierlichen Variablen eine vorteilhafte Realisierung eines Quantencomputers in diesem Paradigma erlauben, es jedoch auch wichtige Beschränkungen gibt, die kompliziertere Zustandspräparationen und Messungen nötig machen. KW - Quantencomputer KW - Quantenoptik KW - Vielteilchentheorie KW - quantum computer KW - quantum optics KW - quantum many-body theory Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62924 ER - TY - THES A1 - Eschenlohr, Andrea T1 - Element-resolved ultrafast magnetization dynamics in ferromagnetic alloys and multilayers T1 - Elementaufgelöste ultraschnelle Magnetisierungsdynamik in ferromagnetischen Legierungen und Multilagen N2 - The microscopic origin of ultrafast demagnetization, i.e. the quenching of the magnetization of a ferromagnetic metal on a sub-picosecond timescale after laser excitation, is still only incompletely understood, despite a large body of experimental and theoretical work performed since the discovery of the effect more than 15 years ago. Time- and element-resolved x-ray magnetic circular dichroism measurements can provide insight into the microscopic processes behind ultrafast demagnetization as well as its dependence on materials properties. Using the BESSY II Femtoslicing facility, a storage ring based source of 100 fs short soft x-ray pulses, ultrafast magnetization dynamics of ferromagnetic NiFe and GdTb alloys as well as a Au/Ni layered structure were investigated in laser pump – x-ray probe experiments. After laser excitation, the constituents of Ni50Fe50 and Ni80Fe20 exhibit distinctly different time constants of demagnetization, leading to decoupled dynamics, despite the strong exchange interaction that couples the Ni and Fe sublattices under equilibrium conditions. Furthermore, the time constants of demagnetization for Ni and Fe are different in Ni50Fe50 and Ni80Fe20, and also different from the values for the respective pure elements. These variations are explained by taking the magnetic moments of the Ni and Fe sublattices, which are changed from the pure element values due to alloying, as well as the strength of the intersublattice exchange interaction into account. GdTb exhibits demagnetization in two steps, typical for rare earths. The time constant of the second, slower magnetization decay was previously linked to the strength of spin-lattice coupling in pure Gd and Tb, with the stronger, direct spin-lattice coupling in Tb leading to a faster demagnetization. In GdTb, the demagnetization of Gd follows Tb on all timescales. This is due to the opening of an additional channel for the dissipation of spin angular momentum to the lattice, since Gd magnetic moments in the alloy are coupled via indirect exchange interaction to neighboring Tb magnetic moments, which are in turn strongly coupled to the lattice. Time-resolved measurements of the ultrafast demagnetization of a Ni layer buried under a Au cap layer, thick enough to absorb nearly all of the incident pump laser light, showed a somewhat slower but still sub-picosecond demagnetization of the buried Ni layer in Au/Ni compared to a Ni reference sample. Supported by simulations, I conclude that demagnetization can thus be induced by transport of hot electrons excited in the Au layer into the Ni layer, without the need for direct interaction between photons and spins. N2 - Der mikroskopische Ursprung der ultraschnellen Entmagnetisierung, d.h. des Rückgangs der Magnetisierung eines ferromagnetischen Metalls innerhalb einer Pikosekunde nach Laseranregung, ist bisher nur unvollständig verstanden, trotz umfangreicher experimenteller und theoretischer Arbeiten, die seit der Entdeckung des Effekts vor mehr als 15 Jahren durchgeführt wurden. Zeit- und elementaufgelöster Röntgenzirkulardichroismus kann Einblick in die mikroskopischen Prozesse hinter der ultraschnellen Entmagnetisierung sowie deren Materialabhängigkeit gewähren. Am BESSY II Femtoslicing, einer speicherringbasierten Quelle für 100 fs kurze Röntgenpulse, wurde ultraschnelle Magnetisierungsdynamik von ferromagnetischen NiFe- und GdTb-Legierungen sowie einer Au/Ni-Schichtstruktur in Anregungs-Abfrage-Experimenten untersucht. Nach Laseranregung zeigen die Konstituenten von Ni50Fe50 und Ni80Fe20 deutlich unterscheidbares Verhalten und damit entkoppelte Dynamik, trotz starker Austauschkopplung der Ni- und Fe-Untergitter im Gleichgewichtszustand. Weiterhin variieren die Werte der Zeitkonstanten der Entmagnetisierung von Ni und Fe für Ni50Fe50 und Ni80Fe20, und auch für die jeweiligen reinen Elemente. Diese Unterschiede werden durch die magnetischen Momente der Untergitter erklärt, die sich in den Legierungen gegenüber den reinen Elementen ändern, sowie durch die Stärke der Austauschkopplung zwischen den Untergittern. GdTb zeigt Entmagnetisierung in zwei Stufen, was typisch für Seltene Erden ist. Die Zeitkonstante der langsameren zweiten Stufe wurde kürzlich mit der Stärke der Spin-Gitter-Kopplung in reinem Gd und Tb in Verbindung gebracht, wobei die stärkere, direkte Spin-Gitter-Kopplung in Tb zu schnellerer Entmagnetisierung führt. In GdTb folgt die Entmagnetisierung von Gd auf allen Zeitskalen der von Tb. Dies beruht auf einer verstärkten Kopplung der magnetischen Momente von Gd an das Gitter, über die indirekte Austauschkopplung an die Tb-Momente. Dadurch kann Spindrehimpuls schneller an das Gitter abfließen. Zeitaufgelöste Messungen der Entmagnetisierung einer Ni-Schicht unter einer Au-Deckschicht, deren Dicke ausreichend ist um den anregenden Laserpuls praktisch vollständig zu absorbieren, zeigen eine leicht verzögerte aber trotzdem ultraschnelle Entmagnetisierung im Vergleich mit einer Ni-Referenzprobe. Unterstützt durch Simulationen zeigt sich, dass Entmagnetisierung durch den Transport heißer Elektronen von der Au-Deckschicht in die Ni-Schicht ausgelöst wird, ohne dass direkte Wechselwirkung zwischen Photonen und Spins notwendig ist. KW - Festkörperphysik KW - Magnetismus KW - Magnetisierungsdynamik KW - Ultraschnelle Dynamik KW - Röntgenspektroskopie KW - solid state physics KW - magnetism KW - magnetization dynamics KW - ultrafast dynamics KW - x-ray spectroscopy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62846 ER - TY - THES A1 - Herzog, Marc T1 - Structural dynamics of photoexcited nanolayered perovskites studied by ultrafast x-ray diffraction T1 - Untersuchung der Strukturdynamik photoangeregter Nanoschicht-Perowskite mittels ultraschneller Röntgenbeugung N2 - This publication-based thesis represents a contribution to the active research field of ultrafast structural dynamics in laser-excited nanostructures. The investigation of such dynamics is mandatory for the understanding of the various physical processes on microscopic scales in complex materials which have great potentials for advances in many technological applications. I theoretically and experimentally examine the coherent, incoherent and anharmonic lattice dynamics of epitaxial metal-insulator heterostructures on timescales ranging from femtoseconds up to nanoseconds. To infer information on the transient dynamics in the photoexcited crystal lattices experimental techniques using ultrashort optical and x-ray pulses are employed. The experimental setups include table-top sources as well as large-scale facilities such as synchrotron sources. At the core of my work lies the development of a linear-chain model to simulate and analyze the photoexcited atomic-scale dynamics. The calculated strain fields are then used to simulate the optical and x-ray response of the considered thin films and multilayers in order to relate the experimental signatures to particular structural processes. This way one obtains insight into the rich lattice dynamics exhibiting coherent transport of vibrational energy from local excitations via delocalized phonon modes of the samples. The complex deformations in tailored multilayers are identified to give rise to highly nonlinear x-ray diffraction responses due to transient interference effects. The understanding of such effects and the ability to precisely calculate those are exploited for the design of novel ultrafast x-ray optics. In particular, I present several Phonon Bragg Switch concepts to efficiently generate ultrashort x-ray pulses for time-resolved structural investigations. By extension of the numerical models to include incoherent phonon propagation and anharmonic lattice potentials I present a new view on the fundamental research topics of nanoscale thermal transport and anharmonic phonon-phonon interactions such as nonlinear sound propagation and phonon damping. The former issue is exemplified by the time-resolved heat conduction from thin SrRuO3 films into a SrTiO3 substrate which exhibits an unexpectedly slow heat conductivity. Furthermore, I discuss various experiments which can be well reproduced by the versatile numerical models and thus evidence strong lattice anharmonicities in the perovskite oxide SrTiO3. The thesis also presents several advances of experimental techniques such as time-resolved phonon spectroscopy with optical and x-ray photons as well as concepts for the implementation of x-ray diffraction setups at standard synchrotron beamlines with largely improved time-resolution for investigations of ultrafast structural processes. This work forms the basis for ongoing research topics in complex oxide materials including electronic correlations and phase transitions related to the elastic, magnetic and polarization degrees of freedom. N2 - Diese publikationsbasierte Dissertation ist ein Beitrag zu dem aktuellen Forschungsgebiet der ultraschnellen Strukturdynamik in laserangeregten Nanostrukturen. Die Erforschung solcher Vorgänge ist unabdingbar für ein Verständnis der vielseitigen physikalischen Prozesse auf mikroskopischen Längenskalen in komplexen Materialien, welche enorme Weiterentwicklungen für technologische Anwendungen versprechen. Meine theoretischen und experimentellen Untersuchungen betrachten kohärente, inkohärente und anharmonische Gitterdynamiken in epitaktischen Metal-Isolator-Heterostrukturen auf Zeitskalen von Femtosekunden bis Nanosekunden. Um Einsichten in solche transienten Prozesse in laserangeregten Kristallen zu erhalten, werden experimentelle Techniken herangezogen, die ultrakurze Pulse von sichtbarem Licht und Röntgenstrahlung verwenden. Ein zentraler Bestandteil meiner Arbeit ist die Entwicklung eines Linearkettenmodells zur Simulation und Analyse der laserinitiierten Atombewegungen. Die damit errechneten Verzerrungsfelder werden anschließend verwendet, um die Änderung der optischen und Röntgeneigenschaften der betrachteten Dünnfilm- und Vielschichtsysteme zu simulieren. Diese Rechnungen werden dann mit den experimentellen Daten verglichen, um die experimentellen Signaturen mit errechneten strukturellen Prozessen zu identifizieren. Dadurch erhält man Einsicht in die vielseitige Gitterdynamiken, was z.B. einen kohärenten Transport der Vibrationsenergie von lokal angeregten Bereichen durch delokalisierte Phononenmoden offenbart. Es wird gezeigt, dass die komplexen Deformationen in maßgeschneiderten Vielschichtsystemen hochgradig nichtlineare Röntgenbeugungseffekte auf Grund von transienten Interferenzerscheinungen verursachen. Das Verständnis dieser Prozesse und die Möglichkeit, diese präzise zu simulieren, werden dazu verwendet, neuartige ultraschnelle Röntgenoptiken zu entwerfen. Insbesondere erläutere ich mehrere Phonon-Bragg-Schalter-Konzepte für die effiziente Erzeugung ultrakurzer Röntgenpulse, die in zeitaufgelösten Strukturanalysen Anwendung finden. Auf Grund der Erweiterung der numerischen Modelle zur Beschreibung von inkohärenter Phononenausbreitung und anharmonischer Gitterpotentiale decken diese ebenfalls die aktuellen Themengebiete von Wärmetransport auf Nanoskalen und anharmonischer Phonon-Phonon-Wechselwirkung (z.B. nichtlineare Schallausbreitung und Phononendämpfung) ab. Die erstere Thematik wird am Beispiel der zeitaufgelösten Wärmeleitung von einem dünnen SrRuO3-Film in ein SrTiO3-Substrat behandelt, wobei ein unerwartet langsamer Wärmetransport zu Tage tritt. Außerdem diskutiere ich mehrere Experimente, die auf Grund der sehr guten Reproduzierbarkeit durch die numerischen Modelle starke Gitteranharmonizitäten in dem oxidischen Perowskit SrTiO3 bezeugen. Diese Dissertation erarbeitet zusätzlich verschiedene Weiterentwicklungen von experimentellen Methoden, wie z.B. die zeitaufgelöste Phononenspektroskopie mittels optischer Photonen und Röntgenphotonen, sowie Konzepte für die Umsetzung von Röntgenbeugungsexperimenten an Standard-Synchrotronquellen mit stark verbesserter Zeitauflösung für weitere Studien von ultraschnellen Strukturvorgängen. KW - ultraschnelle Röntgenbeugung KW - Phononen KW - epitaktisch KW - ultrafast x-ray diffraction KW - phonons KW - epitaxial Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62632 ER - TY - THES A1 - Künn, Steffen T1 - Unemployment and active labor market policy : new evidence on start-up subsidies, marginal employment and programs for youth unemployed T1 - Arbeitslosigkeit und die Rolle von aktiver Arbeitsmarktpolitik : neue Erkenntnisse zur Existenzgründungsförderung, geringfügiger Beschäftigung und Programmen für arbeitslose Jugendliche N2 - In industrialized economies such as the European countries unemployment rates are very responsive to the business cycle and significant shares stay unemployed for more than one year. To fight cyclical and long-term unemployment countries spend significant shares of their budget on Active Labor Market Policies (ALMP). To improve the allocation and design of ALMP it is essential for policy makers to have reliable evidence on the effectiveness of such programs available. Although the number of studies has been increased during the last decades, policy makers still lack evidence on innovative programs and for specific subgroups of the labor market. Using Germany as a case study, the dissertation aims at contributing in this way by providing new evidence on start-up subsidies, marginal employment and programs for youth unemployed. The idea behind start-up subsidies is to encourage unemployed individuals to exit unemployment by starting their own business. Those programs have compared to traditional programs of ALMP the advantage that not only the participant escapes unemployment but also might generate additional jobs for other individuals. Considering two distinct start-up subsidy programs, the dissertation adds three substantial aspects to the literature: First, the programs are effective in improving the employment and income situation of participants compared to non-participants in the long-run. Second, the analysis on effect heterogeneity reveals that the programs are particularly effective for disadvantaged groups in the labor market like low educated or low qualified individuals, and in regions with unfavorable economic conditions. Third, the analysis considers the effectiveness of start-up programs for women. Due to higher preferences for flexible working hours and limited part-time jobs, unemployed women often face more difficulties to integrate in dependent employment. It can be shown that start-up subsidy programs are very promising as unemployed women become self-employed which gives them more flexibility to reconcile work and family. Overall, the results suggest that the promotion of self-employment among the unemployed is a sensible strategy to fight unemployment by abolishing labor market barriers for disadvantaged groups and sustainably integrating those into the labor market. The next chapter of the dissertation considers the impact of marginal employment on labor market outcomes of the unemployed. Unemployed individuals in Germany are allowed to earn additional income during unemployment without suffering a reduction in their unemployment benefits. Those additional earnings are usually earned by taking up so-called marginal employment that is employment below a certain income level subject to reduced payroll taxes (also known as “mini-job”). The dissertation provides an empirical evaluation of the impact of marginal employment on unemployment duration and subsequent job quality. The results suggest that being marginal employed during unemployment has no significant effect on unemployment duration but extends employment duration. Moreover, it can be shown that taking up marginal employment is particularly effective for long-term unemployed, leading to higher job-finding probabilities and stronger job stability. It seems that mini-jobs can be an effective instrument to help long-term unemployed individuals to find (stable) jobs which is particularly interesting given the persistently high shares of long-term unemployed in European countries. Finally, the dissertation provides an empirical evaluation of the effectiveness of ALMP programs to improve labor market prospects of unemployed youth. Youth are generally considered a population at risk as they have lower search skills and little work experience compared to adults. This results in above-average turnover rates between jobs and unemployment for youth which is particularly sensitive to economic fluctuations. Therefore, countries spend significant resources on ALMP programs to fight youth unemployment. However, so far only little is known about the effectiveness of ALMP for unemployed youth and with respect to Germany no comprehensive quantitative analysis exists at all. Considering seven different ALMP programs, the results show an overall positive picture with respect to post-treatment employment probabilities for all measures under scrutiny except for job creation schemes. With respect to effect heterogeneity, it can be shown that almost all programs particularly improve the labor market prospects of youths with high levels of pretreatment schooling. Furthermore, youths who are assigned to the most successful employment measures have much better characteristics in terms of their pre-treatment employment chances compared to non-participants. Therefore, the program assignment process seems to favor individuals for whom the measures are most beneficial, indicating a lack of ALMP alternatives that could benefit low-educated youths. N2 - Zur Verbesserung der Arbeitsmarktchancen arbeitsloser Personen und damit zur Bekämpfung von Arbeitslosigkeit werden innerhalb der Europäischen Union jedes Jahr beträchtliche Summen für Maßnahmen der aktiven Arbeitsmarktpolitik (AAP) aufgewendet. Vor diesem Hintergrund ergibt sich die Frage nach der Effektivität dieser Programme. Obwohl in den vergangenen Jahren zahlreiche empirische Evaluationsstudien durchgeführt und hierdurch wesentliche Erkenntnisse über die Wirksamkeit von AAP gewonnen wurden, bestehen noch stets unerforschte bzw. nur unzureichend erforschte Bereiche, wie zum Beispiel für innovative Programme oder für Untergruppen am Arbeitsmarkt. Hierin liegt der Beitrag der Dissertationsschrift. Am Beispiel von Deutschland werden neue Erkenntnisse zur Wirksamkeit der Existenzgründungsförderung, der geringfügigen Beschäftigung sowie der Programme für arbeitslose Jugendliche geliefert. Mit Einführung des Existenzgründungszuschusses (Ich-AG) im Rahmen der Hartz-Reformen, standen gründungswilligen Arbeitslosen, zusammen mit dem bereits seit Mitte der Achtziger Jahre bekannten Überbrückungsgeld, zwischen 2003 und 2006 zwei Förderprogramme zur Verfügung. Beide Programme umfassen eine monetäre Förderung während der Gründungsphase, um arbeitslosen Personen den Weg in die berufliche Selbständigkeit zu erleichtern. Die Analyse der beiden Programme zeigt deutlich, dass die intendierten Ziele, d.h. die Verbesserung der Beschäftigungschancen sowie der Einkommenssituation der Teilnehmer, erreicht wurden. Es zeigt sich weiter, dass beide Programme insbesondere effektiv für benachteiligte Gruppen am Arbeitsmarkt, wie z.B. Geringqualifizierte, sowie in Regionen mit eher schlechten ökonomischen Bedingungen sind. Aber auch die getrennte Analyse für Frauen zieht eine positive Bilanz. Hier erweist sich die Förderung als besonders wirksam, da die berufliche Selbständigkeit (im Gegensatz zur abh. Beschäftigung) anscheinend eine bessere Vereinbarkeit von Familie und Beruf ermöglicht. Abschließend lässt sich somit feststellen, dass die Förderung der beruflichen Selbständigkeit eine sinnvolle Strategie darstellt, da insbesondere bestehende Hürden für benachteiligte Gruppen am Arbeitsmarkt beseitigt und diese Personen langfristig in den Arbeitsmarkt integriert werden. Im nächsten Abschnitt der Dissertationsschrift wird die Aufnahme einer geringfügigen Beschäftigung während der Arbeitslosigkeit untersucht. In Deutschland können arbeitslose Personen bis zu 15 Stunden/Woche eine Beschäftigung aufnehmen, wobei ein Zuverdienst bis 165 Euro/Monat keine Auswirkung auf den Bezug von Arbeitslosengeld hat. Hierzu greifen arbeitslose Personen insbesondere auf die geringfügige Beschäftigung (genannt „Mini-Job“) zurück, da diese für die Arbeitslosen selbst abgabenfrei ist und Arbeitgeber nur einen reduzierten Beitrag zur Sozialversicherung sowie Einkommensteuer zahlen. Das erhöhte Einkommensniveau während der Arbeitslosigkeit sowie der enge Kontakt zum Arbeitsmarkt können unterschiedliche Wirkungen generieren. Es zeigt sich, dass die Aufnahme einer geringfügigen Beschäftigung grundsätzlich keinen signifikanten Einfluss auf die Arbeitslosigkeitsdauer hat, jedoch im Anschluss an die Arbeitslosigkeit zu längeren Beschäftigungsphasen führt. Die Untersuchung der Effektheterogenität zeigt, dass die geringfügige Beschäftigung während der Arbeitslosigkeit die Arbeitslosigkeitsdauer für Langzeitarbeitslose verkürzt und zu insgesamt stabileren Beschäftigungsphasen für diese Personengruppe führt. Das Ergebnis ist von hoher politischer Relevanz, da die Möglichkeit einer Zusatzbeschäftigung während der Arbeitslosigkeit anscheinend ein effektives Instrument zur Bekämpfung von Langzeitarbeitslosigkeit darstellt. Abschließend beschäftigt sich die Dissertationsschrift mit der Untersuchung der Effektivität von AAP zur Verbesserung der Arbeitsmarktchancen von arbeitslosen Jugendlichen. Jugendliche sind im Gegensatz zu Erwachsenen häufiger von Arbeitslosigkeit betroffen, da sie über geringere Such- bzw. Arbeitserfahrung verfügen. Die Bekämpfung von Jugendarbeitslosigkeit steht daher im Fokus der AAP. Vor diesem Hintergrund ist es erstaunlich, dass bisher nur wenig über die Wirksamkeit von AAP für arbeitslose Jugendliche bekannt ist bzw. für Deutschland hierzu noch überhaupt keine Erkenntnisse existieren. Die Dissertationsschrift liefert nun erstmalig Evidenz zur Wirksamkeit von AAP für arbeitslose Jugendliche in Deutschland. Die untersuchten Programme (außer Arbeitsbeschaffungsmaßnahmen) erhöhen die Beschäftigungswahrscheinlichkeit der Teilnehmer gegenüber den Nicht-Teilnehmern. Allerdings zeigt sich auch, dass arbeitslose Jugendliche ohne bzw. mit Hauptschulabschluss weniger von einer Programmteilnahme profitieren als Jugendliche mit einer höheren Schulbildung. Hier scheint noch Optimierungsbedarf zu bestehen, indem die Ausgestaltung der AAP stärker auf die Bedürfnisse von geringqualifizierten Jugendlichen eingehen sollte. KW - aktive Arbeitsmarktpolitik KW - Evaluation KW - Mikroökonometrie KW - langfristige Effekte KW - Effektheterogenität KW - active labor market policy KW - evaluation KW - microeconometrics KW - long-term effects KW - effect heterogeneity Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62718 ER - TY - THES A1 - Nehring, Benjamin T1 - Point processes in statistical mechanics : a cluster expansion approach T1 - Punktprozesse in der Statistischen Mechanik : ein Cluster Entwicklungszugang N2 - A point process is a mechanism, which realizes randomly locally finite point measures. One of the main results of this thesis is an existence theorem for a new class of point processes with a so called signed Levy pseudo measure L, which is an extension of the class of infinitely divisible point processes. The construction approach is a combination of the classical point process theory, as developed by Kerstan, Matthes and Mecke, with the method of cluster expansions from statistical mechanics. Here the starting point is a family of signed Radon measures, which defines on the one hand the Levy pseudo measure L, and on the other hand locally the point process. The relation between L and the process is the following: this point process solves the integral cluster equation determined by L. We show that the results from the classical theory of infinitely divisible point processes carry over in a natural way to the larger class of point processes with a signed Levy pseudo measure. In this way we obtain e.g. a criterium for simplicity and a characterization through the cluster equation, interpreted as an integration by parts formula, for such point processes. Our main result in chapter 3 is a representation theorem for the factorial moment measures of the above point processes. With its help we will identify the permanental respective determinantal point processes, which belong to the classes of Boson respective Fermion processes. As a by-product we obtain a representation of the (reduced) Palm kernels of infinitely divisible point processes. In chapter 4 we see how the existence theorem enables us to construct (infinitely extended) Gibbs, quantum-Bose and polymer processes. The so called polymer processes seem to be constructed here for the first time. In the last part of this thesis we prove that the family of cluster equations has certain stability properties with respect to the transformation of its solutions. At first this will be used to show how large the class of solutions of such equations is, and secondly to establish the cluster theorem of Kerstan, Matthes and Mecke in our setting. With its help we are able to enlarge the class of Polya processes to the so called branching Polya processes. The last sections of this work are about thinning and splitting of point processes. One main result is that the classes of Boson and Fermion processes remain closed under thinning. We use the results on thinning to identify a subclass of point processes with a signed Levy pseudo measure as doubly stochastic Poisson processes. We also pose the following question: Assume you observe a realization of a thinned point process. What is the distribution of deleted points? Surprisingly, the Papangelou kernel of the thinning, besides a constant factor, is given by the intensity measure of this conditional probability, called splitting kernel. N2 - Ein Punktprozess ist ein Mechanismus, der zufällig ein lokalendliches Punktmaß realisiert. Ein Hauptresultat dieser Arbeit ist ein Existenzsatz für eine sehr große Klasse von Punktprozessen mit einem signierten Levy Pseudomaß L. Diese Klasse ist eine Erweiterung der Klasse der unendlich teilbaren Punktprozesse. Die verwendete Methode der Konstruktion ist eine Verbindung der klassischen Punktprozesstheorie, wie sie von Kerstan, Matthes und Mecke ursprünglich entwickelt wurde, mit der sogenannten Methode der Cluster-Entwicklungen aus der statistischen Mechanik. Ausgangspunkt ist eine Familie von signierten Radonmaßen. Diese definiert einerseits das Levysche Pseudomaß L; andererseits wird mit deren Hilfe der Prozess lokal definiert. Der Zusammenhang zwischen L und dem Prozess ist so, dass der Prozess die durch L bestimmte Integralgleichung (genannt Clustergleichung) löst. Wir zeigen, dass sich die Resultate aus der klassischen Theorie der unendlich teilbaren Punktprozesse auf natürliche Weise auf die neue Klasse der Punktprozesse mit signiertem Levy Pseudomaß erweitern lassen. So erhalten wir z.B. ein Kriterium für die Einfachheit und eine Charackterisierung durch die Clustergleichung für jene Punktprozesse. Unser erstes Hauptresultat in Kapitel 3 zur Analyse der konstruierten Prozesse ist ein Darstellungssatz der faktoriellen Momentenmaße. Mit dessen Hilfe werden wir die permanentischen respektive determinantischen Punktprozesse, die in die Klasse der Bosonen respektive Fermionen Prozesse fallen, identifizieren. Als ein Nebenresultat erhalten wir eine Darstellung der (reduzierten) Palm Kerne von unendlich teilbaren Punktprozessen. Im Kapitel 4 konstruieren wir mit Hilfe unseres Existenzsatzes unendlich ausgedehnte Gibbsche Prozesse sowie Quanten-Bose und Polymer Prozesse. Unseres Wissens sind letztere bisher nicht konstruiert worden. Im letzten Teil der Arbeit zeigen wir, dass die Familie der Clustergleichungen gewisse Stabilitätseigenschaften gegenüber gewissen Transformationen ihrer Lösungen aufweist. Dies wird erstens verwendet, um zu verdeutlichen, wie groß die Klasse der Punktprozesslösungen einer solchen Gleichung ist. Zweitens wird damit der Ausschauerungssatz von Kerstan, Matthes und Mecke in unserer allgemeineren Situation gezeigt. Mit seiner Hilfe können wir die Klasse der Polyaschen Prozesse auf die der von uns genannten Polya Verzweigungsprozesse vergrößern. Der letzte Abschnitt der Arbeit beschäftigt sich mit dem Ausdünnen und dem Splitten von Punktprozessen. Wir beweisen, dass die Klassen der Bosonen und Fermionen Prozesse abgeschlossen unter Ausdünnung ist. Die Ergebnisse über das Ausdünnen verwenden wir, um eine Teilklasse der Punktprozesse mit signiertem Levy Pseudomaß als doppelt stochastische Poissonsche Prozesse zu identifizieren. Wir stellen uns auch die Frage: Angenommen wir beobachten eine Realisierung einer Ausdünnung eines Punktprozesses. Wie sieht die Verteilung der gelöschten Punktkonfiguration aus? Diese bedingte Verteilung nennen wir splitting Kern, und ein überraschendes Resultat ist, dass der Papangelou-Kern der Ausdünnung, abgesehen von einem konstanten Faktor, gegeben ist durch das Intensitätsmaß des splitting Kernes. KW - Gibbssche Punktprozesse KW - determinantische Punktprozesse KW - Cluster Entwicklung KW - Levy Maß KW - unendlich teilbare Punktprozesse KW - Gibbs point processes KW - Determinantal point processes KW - Cluster expansion KW - Levy measure KW - infinitely divisible point processes Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62682 ER - TY - THES A1 - Kappel, Marcel T1 - Scattering effects in the sound wave propagation of instrument soundboards T1 - Schall-Streueffekte in Resonanzböden von Musikinstrumenten N2 - In the western hemisphere, the piano is one of the most important instruments. While its evolution lasted for more than three centuries, and the most important physical aspects have already been investigated, some parts in the characterization of the piano remain not well understood. Considering the pivotal piano soundboard, the effect of ribs mounted on the board exerted on the sound radiation and propagation in particular, is mostly neglected in the literature. The present investigation deals exactly with the sound wave propagation effects that emerge in the presence of an array of equally-distant mounted ribs at a soundboard. Solid-state theory proposes particular eigenmodes and -frequencies for such arrangements, which are comparable to single units in a crystal. Following this 'linear chain model' (LCM), differences in the frequency spectrum are observable as a distinct band structure. Also, the amplitudes of the modes are changed, due to differences of the damping factor. These scattering effects were not only investigated for a well-understood conceptional rectangular soundboard (multichord), but also for a genuine piano resonance board manufactured by the piano maker company 'C. Bechstein Pianofortefabrik'. To obtain the possibility to distinguish between the characterizing spectra both with and without mounted ribs, the typical assembly plan for the Bechstein instrument was specially customized. Spectral similarities and differences between both boards are found in terms of damping and tone. Furthermore, specially prepared minimal-invasive piezoelectric polymer sensors made from polyvinylidene fluoride (PVDF) were used to record solid-state vibrations of the investigated system. The essential calibration and characterization of these polymer sensors was performed by determining the electromechanical conversion, which is represented by the piezoelectric coefficient. Therefore, the robust 'sinusoidally varying external force' method was applied, where a dynamic force perpendicular to the sensor's surface, generates movable charge carriers. Crucial parameters were monitored, with the frequency response function as the most important one for acousticians. Along with conventional condenser microphones, the sound was measured as solid-state vibration as well as airborne wave. On this basis, statements can be made about emergence, propagation, and also the overall radiation of the generated modes of the vibrating system. Ultimately, these results acoustically characterize the entire system. N2 - Betrachtet man den westlichen Kulturkreis, ist der Flügel bzw. das Klavier wohl eines der bedeutendsten Instrumente. Trotz einer stetigen, empirischen Weiterentwicklung dieses Instrumentes in den letzten drei Jahrhunderten und des Wissens um die wichtigsten physikalischen Effekte, sind viele Teile der Charakterisierung des Klaviers (sowohl akustisch als auch physikalisch) immer noch nicht vollständig verstanden. Nehmen wir nur den Resonanzboden - das entscheidende Bauteil für die Akustik eines Klaviers - und betrachten die Auswirkung, den die Berippung auf die Schallausbreitung des Instruments hat. Bis auf wenige Ausnahmen wird dieser Struktur-Aspekt in der Literatur weitestgehend übergangen. Die vorliegende Arbeit untersucht genau diese Ausbreitungscharakteristiken und Streueffekte, welche dadurch entstehen, dass Rippen, die denselben Abstand zueinander haben, auf dem Resonanzboden angebracht werden. Die Festkörperphysik stellt ein einfaches Modell über die Eigenfrequenzen für solche Anordnungen bereit. Dafür werden die Rippen und deren Abstände wie Einheitszellen eines Kristalls betrachtet. Ausgehend vom sogenannten 'Modell der linearen Ketten', werden gemessene Frequenzbänder im Spektrum erklärbar. Zusätzlich ändern sich auch die spektralen Amplituden des Resonanzbodens durch das Anbringen der Rippen. Diese Streueffekte wurden nicht nur an einem konzeptionellen rechteckigen Resonanzboden untersucht, sondern auch an einem originalen Klavier-Resonanzboden, welcher von dem Klavierbauer 'C. Bechstein Pianofortefabrik' hergestellt wurde und auch später in einem fertigen Klavier zum Einsatz kommen wird. Der traditionelle Zusammenbau des Klaviers wurde speziell für diese Untersuchung abgeändert, um die Möglichkeit zu haben, die Berippung des Resonanzbodens spektral zu charakterisieren. Alle gefundenen Eigenschaften des konzeptionellen und des originalen Bodens wurden verglichen. Für die Dämpfung und für die Brillianz des Tons wurden Übereinstimmungen, aber auch Unterschiede gefunden. Ein großer Teil dieser Untersuchung erforderte den Einsatz von speziell angefertigten piezoelektrischen Polymer-Beschleunigungsaufnehmern aus Polyvinylidenfluorid. Direkt fest eingeklebt im Instrument, wurden diese eingesetzt, um die Körperschwingungen des vibrierenden Systems aufzunehmen. Die essentielle Kalibrierung und Charakterisierung dieser Sensoren wurde durchgeführt, indem die elektromechanische Umwandlung bestimmt wurde, die durch den piezoelektrischen Koeffizienten gegeben ist. Durch eine sinusförmig variierende, externe Kraft und die dadurch entstehenden Ladungsträger an den Oberflächen des Sensormaterials kann dieser Koeffizient sehr genau bestimmt werden. In Abhängigkeit entscheidender physikalischer Größen, z.B. der Frequenz-Antwort-Funktion, wurde das Verhalten des piezoelektrischen Koeffizienten untersucht. Die erzeugten Vibrationen als Körperschall (aufgenommen durch die Piezopolymere) und als Luftschallwelle (aufgenommen durch konventionelle Kondensator-Mikrophone) wurden simultan gemessen und dann untersucht. Daraus kann man Aussagen über Entstehung, Ausbreitung und Abstrahlung der erzeugten Moden in das umgebende Medium ableiten. Letztlich charakterisieren diese Ergebnisse das gesamte vibrierende System akustisch. KW - Musikinstrumente KW - piezoelektrische Sensoren KW - Streuung von Schallwellen KW - music instruments KW - piezoelectric sensors KW - wave scattering Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62676 ER - TY - THES A1 - Matallana-Ramírez, Lilian Paola T1 - Unraveling the ORE1 regulon in Arabidopsis thaliana : molecular and functional characterization of up- and down-stream components T1 - Aufklärung des ORE1-Regulationsnetzwerks in Arabidopsis thaliana : molekulare und funktionelle Charakterisierung von Über- und untergeordneten Komponenten N2 - Leaf senescence is an active process required for plant survival, and it is flexibly controlled, allowing plant adaptation to environmental conditions. Although senescence is largely an age-dependent process, it can be triggered by environmental signals and stresses. Leaf senescence coordinates the breakdown and turnover of many cellular components, allowing a massive remobilization and recycling of nutrients from senescing tissues to other organs (e.g., young leaves, roots, and seeds), thus enhancing the fitness of the plant. Such metabolic coordination requires a tight regulation of gene expression. One important mechanism for the regulation of gene expression is at the transcriptional level via transcription factors (TFs). The NAC TF family (NAM, ATAF, CUC) includes various members that show elevated expression during senescence, including ORE1 (ANAC092/AtNAC2) among others. ORE1 was first reported in a screen for mutants with delayed senescence (oresara1, 2, 3, and 11). It was named after the Korean word “oresara,” meaning “long-living,” and abbreviated to ORE1, 2, 3, and 11, respectively. Although the pivotal role of ORE1 in controlling leaf senescence has recently been demonstrated, the underlying molecular mechanisms and the pathways it regulates are still poorly understood. To unravel the signaling cascade through which ORE1 exerts its function, we analyzed particular features of regulatory pathways up-stream and down-stream of ORE1. We identified characteristic spatial and temporal expression patterns of ORE1 that are conserved in Arabidopsis thaliana and Nicotiana tabacum and that link ORE1 expression to senescence as well as to salt stress. We proved that ORE1 positively regulates natural and dark-induced senescence. Molecular characterization of the ORE1 promoter in silico and experimentally suggested a role of the 5’UTR in mediating ORE1 expression. ORE1 is a putative substrate of a calcium-dependent protein kinase named CKOR (unpublished data). Promising data revealed a positive regulation of putative ORE1 targets by CKOR, suggesting the phosphorylation of ORE1 as a requirement for its regulation. Additionally, as part of the ORE1 up-stream regulatory pathway, we identified the NAC TF ATAF1 which was able to transactivate the ORE1 promoter in vivo. Expression studies using chemically inducible ORE1 overexpression lines and transactivation assays employing leaf mesophyll cell protoplasts provided information on target genes whose expression was rapidly induced upon ORE1 induction. First, a set of target genes was established and referred to as early responding in the ORE1 regulatory network. The consensus binding site (BS) of ORE1 was characterized. Analysis of some putative targets revealed the presence of ORE1 BSs in their promoters and the in vitro and in vivo binding of ORE1 to their promoters. Among these putative target genes, BIFUNCTIONAL NUCLEASE I (BFN1) and VND-Interacting2 (VNI2) were further characterized. The expression of BFN1 was found to be dependent on the presence of ORE1. Our results provide convincing data which support a role for BFN1 as a direct target of ORE1. Characterization of VNI2 in age-dependent and stress-induced senescence revealed ORE1 as a key up-stream regulator since it can bind and activate VNI2 expression in vivo and in vitro. Furthermore, VNI2 was able to promote or delay senescence depending on the presence of an activation domain located in its C-terminal region. The plasticity of this gene might include alternative splicing (AS) to regulate its function in different organs and at different developmental stages, particularly during senescence. A model is proposed on the molecular mechanism governing the dual role of VNI2 during senescence. N2 - Der Alterungsprozess lebender Organismen wird seit vielen Jahren wissenschaftlich untersucht. In Pflanzen wird der Alterungsprozess Seneszenz genannt. Er ist für das Überleben der Pflanze von großer Bedeutung. Dennoch ist unser Wissen über die molekularen Mechanismen der Blattseneszenz, dessen komplexe Steuerung und die Wechselwirkungen mit Umweltsignale noch sehr limitiert. Ein wichtiges Steuerungselement besteht in der Aktivierung bestimmter Transkriptionsfaktoren (TFs) die während der Seneszenz unterschiedlich exprimiert werden. Aus der Literatur ist bekannt, dass Mitglieder der NAC TF Familie (NAM/ATAF/CUC) an der Regulation der Seneszenz bei Pflanzen beteiligt sind. ORE1 (ANAC092/AtNAC2), ein NAC TF mit erhöhter Genexpression während der Seneszenz, wurde erstmals in Mutanten mit verzögerte Seneszenz beschrieben, die molekularen Mechanismen, wie ORE1 die Seneszenz kontrolliert und die Stoffwechselwege reguliert, sind aber noch weitgehend unbekannt. Die Arbeiten im Rahmen dieser Dissertation wurden durchgeführt, um einen tieferen Einblick in die Regulationsmechanismen von ORE1 auf natürliche, dunkel induzierte sowie Salzstress-induzierte Seneszenz zu erhalten. Ergebnisse von Untersuchungen an zwei unterschiedlichen Pflanzenspezies (Arabidopsis thalinana und Nicotiana tabacum) deuten auf ein ähnliches Expressionsmuster von ORE1 während der natürlichen als auch der Salz-induzierten Seneszenz hin. In der Promotorregion von ORE1 wurde ein für natürliche Seneszenz charakteristisches Muster identifiziert. In vivo Analysen ergaben darüber hinaus. Hinweise auf zwei weitere ORE1 Regulatoren. Debei handelt es sich umeinen weiteren NAC TF (ATAF1) und (ii) CKOR, einer Calcium-abhängige Protein-Kinase (CDPK).In weiteren Studien wurden sechs Gene identifiziert, die durch ORE1 reguliert werden. In den Promotoren dieser Gene wurden entsprechende Bindestellen für ORE1 lokalisiert. Die ORE1-Bindung an die Promotoren wurde daraufhin sowohl in vitro als auch in vivo verifiziert. Zwei dieser Gene, die BIFUNCTIONAL Nuclease I (BFNI) und VND-Interacting2 (VNI2), wurden zudem auf molekularer und physiologischer Ebene untersucht. KW - Blattalterung KW - Transkriptionsfaktor KW - Regulationsweg KW - Leaf senescence KW - transcription factor KW - regulatory pathway Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62646 ER - TY - THES A1 - Murr, Rüdiger T1 - Reciprocal classes of Markov processes : an approach with duality formulae T1 - Reziproke Klassen von Markov Prozessen : ein Ansatz mit Dualitätsformeln N2 - This work is concerned with the characterization of certain classes of stochastic processes via duality formulae. In particular we consider reciprocal processes with jumps, a subject up to now neglected in the literature. In the first part we introduce a new formulation of a characterization of processes with independent increments. This characterization is based on a duality formula satisfied by processes with infinitely divisible increments, in particular Lévy processes, which is well known in Malliavin calculus. We obtain two new methods to prove this duality formula, which are not based on the chaos decomposition of the space of square-integrable function- als. One of these methods uses a formula of partial integration that characterizes infinitely divisible random vectors. In this context, our characterization is a generalization of Stein’s lemma for Gaussian random variables and Chen’s lemma for Poisson random variables. The generality of our approach permits us to derive a characterization of infinitely divisible random measures. The second part of this work focuses on the study of the reciprocal classes of Markov processes with and without jumps and their characterization. We start with a resume of already existing results concerning the reciprocal classes of Brownian diffusions as solutions of duality formulae. As a new contribution, we show that the duality formula satisfied by elements of the reciprocal class of a Brownian diffusion has a physical interpretation as a stochastic Newton equation of motion. Thus we are able to connect the results of characterizations via duality formulae with the theory of stochastic mechanics by our interpretation, and to stochastic optimal control theory by the mathematical approach. As an application we are able to prove an invariance property of the reciprocal class of a Brownian diffusion under time reversal. In the context of pure jump processes we derive the following new results. We describe the reciprocal classes of Markov counting processes, also called unit jump processes, and obtain a characterization of the associated reciprocal class via a duality formula. This formula contains as key terms a stochastic derivative, a compensated stochastic integral and an invariant of the reciprocal class. Moreover we present an interpretation of the characterization of a reciprocal class in the context of stochastic optimal control of unit jump processes. As a further application we show that the reciprocal class of a Markov counting process has an invariance property under time reversal. Some of these results are extendable to the setting of pure jump processes, that is, we admit different jump-sizes. In particular, we show that the reciprocal classes of Markov jump processes can be compared using reciprocal invariants. A characterization of the reciprocal class of compound Poisson processes via a duality formula is possible under the assumption that the jump-sizes of the process are incommensurable. N2 - Diese Arbeit befasst sich mit der Charakterisierung von Klassen stochastischer Prozesse durch Dualitätsformeln. Es wird insbesondere der in der Literatur bisher unbehandelte Fall reziproker Klassen stochastischer Prozesse mit Sprungen untersucht. Im ersten Teil stellen wir eine neue Formulierung einer Charakterisierung von Prozessen mit unabhängigen Zuwächsen vor. Diese basiert auf der aus dem Malliavinkalkül bekannten Dualitätsformel für Prozesse mit unendlich oft teilbaren Zuwächsen. Wir präsentieren zusätzlich zwei neue Beweismethoden dieser Dualitätsformel, die nicht auf der Chaoszerlegung des Raumes quadratintegrabler Funktionale beruhen. Eine dieser Methoden basiert auf einer partiellen Integrationsformel fur unendlich oft teilbare Zufallsvektoren. In diesem Rahmen ist unsere Charakterisierung eine Verallgemeinerung des Lemma fur Gaußsche Zufallsvariablen von Stein und des Lemma fur Zufallsvariablen mit Poissonverteilung von Chen. Die Allgemeinheit dieser Methode erlaubt uns durch einen ähnlichen Zugang die Charakterisierung unendlich oft teilbarer Zufallsmaße. Im zweiten Teil der Arbeit konzentrieren wir uns auf die Charakterisierung reziproker Klassen ausgewählter Markovprozesse durch Dualitätsformeln. Wir beginnen mit einer Zusammenfassung bereits existierender Ergebnisse zu den reziproken Klassen Brownscher Bewegungen mit Drift. Es ist uns möglich die Charakterisierung solcher reziproken Klassen durch eine Dualitätsformel physikalisch umzudeuten in eine Newtonsche Gleichung. Damit gelingt uns ein Brückenschlag zwischen derartigen Charakterisierungsergebnissen und der Theorie stochastischer Mechanik durch den Interpretationsansatz, sowie der Theorie stochastischer optimaler Steuerung durch den mathematischen Ansatz. Unter Verwendung der Charakterisierung reziproker Klassen durch Dualitätsformeln beweisen wir weiterhin eine Invarianzeigenschaft der reziproken Klasse Browscher Bewegungen mit Drift unter Zeitumkehrung. Es gelingt uns weiterhin neue Resultate im Rahmen reiner Sprungprozesse zu beweisen. Wir beschreiben reziproke Klassen Markovscher Zählprozesse, d.h. Sprungprozesse mit Sprunghöhe eins, und erhalten eine Charakterisierung der reziproken Klasse vermöge einer Dualitätsformel. Diese beinhaltet als Schlüsselterme eine stochastische Ableitung nach den Sprungzeiten, ein kompensiertes stochastisches Integral und eine Invariante der reziproken Klasse. Wir präsentieren außerdem eine Interpretation der Charakterisierung einer reziproken Klasse im Rahmen der stochastischen Steuerungstheorie. Als weitere Anwendung beweisen wir eine Invarianzeigenschaft der reziproken Klasse Markovscher Zählprozesse unter Zeitumkehrung. Einige dieser Ergebnisse werden fur reine Sprungprozesse mit unterschiedlichen Sprunghöhen verallgemeinert. Insbesondere zeigen wir, dass die reziproken Klassen Markovscher Sprungprozesse vermöge reziproker Invarianten unterschieden werden können. Eine Charakterisierung der reziproken Klasse zusammengesetzter Poissonprozesse durch eine Dualitätsformel gelingt unter der Annahme inkommensurabler Sprunghöhen. KW - unendliche Teilbarkeit KW - Dualitätsformeln KW - reziproke Klassen KW - Zählprozesse KW - stochastische Mechanik KW - infinite divisibility KW - duality formulae KW - reciprocal class KW - counting process KW - stochastic mechanics Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62091 ER - TY - THES A1 - Morgenstern, Anne T1 - Thermokarst and thermal erosion : degradation of Siberian ice-rich permafrost T1 - Thermokarst und Thermoerosion : Degradation von sibirischem eisreichem Permafrost N2 - Current climate warming is affecting arctic regions at a faster rate than the rest of the world. This has profound effects on permafrost that underlies most of the arctic land area. Permafrost thawing can lead to the liberation of considerable amounts of greenhouse gases as well as to significant changes in the geomorphology, hydrology, and ecology of the corresponding landscapes, which may in turn act as a positive feedback to the climate system. Vast areas of the east Siberian lowlands, which are underlain by permafrost of the Yedoma-type Ice Complex, are particularly sensitive to climate warming because of the high ice content of these permafrost deposits. Thermokarst and thermal erosion are two major types of permafrost degradation in periglacial landscapes. The associated landforms are prominent indicators of climate-induced environmental variations on the regional scale. Thermokarst lakes and basins (alasses) as well as thermo-erosional valleys are widely distributed in the coastal lowlands adjacent to the Laptev Sea. This thesis investigates the spatial distribution and morphometric properties of these degradational features to reconstruct their evolutionary conditions during the Holocene and to deduce information on the potential impact of future permafrost degradation under the projected climate warming. The methodological approach is a combination of remote sensing, geoinformation, and field investigations, which integrates analyses on local to regional spatial scales. Thermokarst and thermal erosion have affected the study region to a great extent. In the Ice Complex area of the Lena River Delta, thermokarst basins cover a much larger area than do present thermokarst lakes on Yedoma uplands (20.0 and 2.2 %, respectively), which indicates that the conditions for large-area thermokarst development were more suitable in the past. This is supported by the reconstruction of the development of an individual alas in the Lena River Delta, which reveals a prolonged phase of high thermokarst activity since the Pleistocene/Holocene transition that created a large and deep basin. After the drainage of the primary thermokarst lake during the mid-Holocene, permafrost aggradation and degradation have occurred in parallel and in shorter alternating stages within the alas, resulting in a complex thermokarst landscape. Though more dynamic than during the first phase, late Holocene thermokarst activity in the alas was not capable of degrading large portions of Pleistocene Ice Complex deposits and substantially altering the Yedoma relief. Further thermokarst development in existing alasses is restricted to thin layers of Holocene ice-rich alas sediments, because the Ice Complex deposits underneath the large primary thermokarst lakes have thawed completely and the underlying deposits are ice-poor fluvial sands. Thermokarst processes on undisturbed Yedoma uplands have the highest impact on the alteration of Ice Complex deposits, but will be limited to smaller areal extents in the future because of the reduced availability of large undisturbed upland surfaces with poor drainage. On Kurungnakh Island in the central Lena River Delta, the area of Yedoma uplands available for future thermokarst development amounts to only 33.7 %. The increasing proximity of newly developing thermokarst lakes on Yedoma uplands to existing degradational features and other topographic lows decreases the possibility for thermokarst lakes to reach large sizes before drainage occurs. Drainage of thermokarst lakes due to thermal erosion is common in the study region, but thermo-erosional valleys also provide water to thermokarst lakes and alasses. Besides these direct hydrological interactions between thermokarst and thermal erosion on the local scale, an interdependence between both processes exists on the regional scale. A regional analysis of extensive networks of thermo-erosional valleys in three lowland regions of the Laptev Sea with a total study area of 5,800 km² found that these features are more common in areas with higher slopes and relief gradients, whereas thermokarst development is more pronounced in flat lowlands with lower relief gradients. The combined results of this thesis highlight the need for comprehensive analyses of both, thermokarst and thermal erosion, in order to assess past and future impacts and feedbacks of the degradation of ice-rich permafrost on hydrology and climate of a certain region. N2 - Die gegenwärtige Klimaerwärmung wirkt sich auf arktische Regionen stärker aus als auf andere Gebiete der Erde. Das hat weitreichende Konsequenzen für Permafrost, der weite Teile der terrestrischen Arktis unterlagert. Das Tauen von Permafrost kann zur Freisetzung erheblicher Mengen an Treibhausgasen sowie zu gravierenden Änderungen in der Geomorphologie, Hydrologie und Ökologie betroffener Landschaften führen, was wiederum als positive Rückkopplung auf das Klimasystem wirken kann. Ausgedehnte Gebiete der ostsibirischen Tiefländer, die mit Permafrost des Yedoma Eiskomplex unterlagert sind, gelten aufgrund des hohen Eisgehalts dieser Permafrostablagerungen als besonders empfindlich gegenüber Klimaerwärmungen. Thermokarst und Thermoerosion sind zwei Hauptformen der Permafrostdegradation in periglazialen Landschaften. Die zugehörigen Landschaftsformen sind auf der regionalen Skala bedeutende Indikatoren klimainduzierter Umweltvariationen. Thermokarstseen und senken (Alasse) sowie Thermoerosionstäler sind in den Küstentiefländern der Laptewsee weit verbreitet. Die vorliegende Dissertation untersucht die räumliche Verbreitung und die morphometrischen Eigenschaften dieser Degradationsformen mit dem Ziel, ihre Entwicklungsbedingungen während des Holozäns zu rekonstruieren und Hinweise auf potenzielle Auswirkungen zukünftiger Permafrostdegradation im Zuge der erwarteten Klimaerwärmung abzuleiten. Der methodische Ansatz ist eine Kombination aus Fernerkundungs-, Geoinformations- und Geländeuntersuchungen, die Analysen auf lokalen bis regionalen räumlichen Skalen integriert. Thermokarst und Thermoerosion haben die Untersuchungsregion tiefgreifend geprägt. Im Eiskomplexgebiet des Lena-Deltas nehmen Thermokarstsenken eine weitaus größere Fläche ein als Thermokarstseen auf Yedoma-Hochflächen (20,0 bzw. 2,2 %), was darauf hin deutet, dass die Bedingungen für die Entwicklung von großflächigem Thermokarst in der Vergangenheit wesentlich günstiger waren als heute. Die Rekonstruktion der Entwicklung eines einzelnen Alas im Lena-Delta belegt eine andauernde Phase hoher Thermokarstaktivität seit dem Übergang vom Pleistozän zum Holozän, die zur Entstehung einer großen und tiefen Senke führte. Nach der Drainage des primären Thermokarstsees im mittleren Holozän erfolgten Permafrostaggradation und degradation parallel und in kürzeren abwechselnden Etappen innerhalb des Alas und führten zu einer komplexen Thermokarstlandschaft. Trotzdem die spätholozäne Thermokarstentwicklung im Alas dynamischer ablief als die erste Entwicklungsphase, resultierte sie nicht in der Degradation großer Teile pleistozäner Eiskomplexablagerungen und einer wesentlichen Veränderung des Yedoma-Reliefs. Weitere Thermokarstentwicklung in bestehenden Alassen ist begrenzt auf geringmächtige Lagen holozäner eisreicher Alas-Sedimente, da die Eiskomplexablagerungen unter den großen primären Thermokarstseen vollständig getaut waren und die unterlagernden Sedimente aus eisarmen, fluvialen Sanden bestehen. Thermokarstprozesse auf ungestörten Yedoma-Hochflächen wirken am stärksten verändernd auf Eiskomplexablagerungen, werden aber in Zukunft auf geringere Ausmaße begrenzt sein, da die Verfügbarkeit großer ungestörter, schwach drainierter Yedoma-Hochflächen abnimmt. Auf der Insel Kurungnakh im zentralen Lena-Delta beträgt der für zukünftige Thermokarstentwicklung verfügbare Anteil an Yedoma-Hochflächen nur 33,7 %. Die zunehmende Nähe von sich entwickelnden Thermokarstseen auf Yedoma-Hochflächen zu bestehenden Degradationsstrukturen und anderen negativen Reliefformen verringert die Möglichkeit der Thermokarstseen, große Ausmaße zu erreichen bevor sie drainieren. Die Drainage von Thermokarstseen durch Thermoerosion ist in der Untersuchungsregion weit verbreitet, aber Thermoerosionstäler versorgen Thermokarstseen und –senken auch mit Wasser. Neben diesen direkten hydrologischen Wechselwirkungen zwischen Thermokarst und Thermoerosion auf der lokalen Ebene existiert auch eine Interdependenz zwischen beiden Prozessen auf der regionalen Ebene. Eine regionale Analyse weitreichender Netze von Thermoerosionstälern in drei Tieflandgebieten der Laptewsee mit einer Fläche von insgesamt 5800 km² zeigte, dass diese Formen häufiger in Gebieten mit höheren Geländeneigungen und Reliefgradienten auftreten, während Thermokarstentwicklung stärker in flachen Tiefländern mit geringeren Reliefgradienten ausgeprägt ist. Die kombinierten Ergebnisse dieser Dissertation zeigen die Notwendigkeit von umfassenden Analysen beider Prozesse und Landschaftsformen, Thermokarst und Thermoerosion, im Hinblick auf die Abschätzung vergangener und zukünftiger Auswirkungen der Degradation eisreichen Permafrosts auf Hydrologie und Klima der betrachteten Region und deren Rückkopplungen. KW - Fernerkundung KW - GIS KW - räumliche Analyse KW - periglaziale Landschaften KW - Arktis KW - remote sensing KW - GIS KW - spatial analyses KW - periglacial landscapes KW - Arctic Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62079 ER - TY - THES A1 - Branscheid, Anja T1 - Phosphate homeostasis and posttranscriptional gene regulation during arbuscular mycorrhizal symbiosis in Medicago truncatula T1 - Phosphat-Homoeostase und posttranskriptionelle Genregulation waehrend der arbuskulaeren Mykorrhiza-Symbiose in Medicago truncatula N2 - Since available phosphate (Pi) resources in soil are limited, symbiotic interactions between plant roots and arbuscular mycorrhizal (AM) fungi are a widespread strategy to improve plant phosphate nutrition. The repression of AM symbiosis by a high plant Pi-status indicates a link between Pi homeostasis signalling and AM symbiosis development. This assumption is supported by the systemic induction of several microRNA399 (miR399) primary transcripts in shoots and a simultaneous accumulation of mature miR399 in roots of mycorrhizal plants. However, the physiological role of this miR399 expression pattern is still elusive and offers the question whether other miRNAs are also involved in AM symbiosis. Therefore, a deep sequencing approach was applied to investigate miRNA-mediated posttranscriptional gene regulation in M. truncatula mycorrhizal roots. Degradome analysis revealed that 185 transcripts were cleaved by miRNAs, of which the majority encoded transcription factors and disease resistance genes, suggesting a tight control of transcriptional reprogramming and a downregulation of defence responses by several miRNAs in mycorrhizal roots. Interestingly, 45 of the miRNA-cleaved transcripts showed a significant differentially regulated between mycorrhizal and non-mycorrhizal roots. In addition, key components of the Pi homeostasis signalling pathway were analyzed concerning their expression during AM symbiosis development. MtPhr1 overexpression and time course expression data suggested a strong interrelation between the components of the PHR1-miR399-PHO2 signalling pathway and AM symbiosis, predominantly during later stages of symbiosis. In situ hybridizations confirmed accumulation of mature miR399 in the phloem and in arbuscule-containing cortex cells of mycorrhizal roots. Moreover, a novel target of the miR399 family, named as MtPt8, was identified by the above mentioned degradome analysis. MtPt8 encodes a Pi-transporter exclusively transcribed in mycorrhizal roots and its promoter activity was restricted to arbuscule-containing cells. At a low Pi-status, MtPt8 transcript abundance inversely correlated with a mature miR399 expression pattern. Increased MtPt8 transcript levels were accompanied by elevated symbiotic Pi-uptake efficiency, indicating its impact on balancing plant and fungal Pi-acquisition. In conclusion, this study provides evidence for a direct link of the regulatory mechanisms of plant Pi-homeostasis and AM symbiosis at a cell-specific level. The results of this study, especially the interaction of miR399 and MtPt8 provide a fundamental step for future studies of plant-microbe-interactions with regard to agricultural and ecological aspects. N2 - Phosphat ist ein essentieller Bestandteil der pflanzlichen Ernährung und ein Mangel führt zu schwerwiegenden Folgen für Wachstum, Entwicklung und Reproduktion der Pflanze. Eine der wichtigsten Strategien, um einen Mangel an löslichem Phosphat im Boden auszugleichen, ist die arbuskuläre Mykorrhiza, einer Wurzelsymbiose zwischen Pflanzen und im Boden lebenden Mykorrhizapilzen. Die Symbiose dient dem gegenseitigen Nährstoffaustausch, der über bäumchenartige Strukturen in Wurzelzellen, den Arbuskeln, realisiert wird. Über ein weit reichendes Netzwerk im Boden verbessert der Pilz die Phosphatversorgung der Pflanzen, wohingegen die Pflanze photosynthetisch erzeugte Zucker zur Verfügung stellt. Ein erhöhter Phosphatgehalt in der Pflanze führt zur Unterdrückung der Symbiose. Da weitestgehend unbekannt ist, wie genau Pflanzen diese Einschränkung der Symbiose regulieren, kann die Erforschung dieses Zusammenhangs einen wichtigen Beitrag für Agrarwirtschaft und Umweltschutz leisten. Im Rahmen dieser Arbeit konnte durch die Entdeckung eines neuen, bisher unbekannten Zielgens aufgezeigt werden, dass die für den Ausgleich des pflanzlichen Phosphathaushalts wichtige Mikro-RNA (miR) 399 auch in der Regulation der arbuskulären Mykorrhizasymbiose von besonderer Bedeutung ist. MiRNAs regulieren die Aktivität von Zielgenen indem sie die jeweiligen Transkripte durch Bindung für den Abbau markieren. In kolonisierten Wurzeln, insbesondere in arbuskelhaltigen Wurzelzellen, konnte eine erhöhte Anhäufung der miR399 beobachtet werden. Durch das Verfahren der Hochdurchsatz-Sequenzierung des Wurzeldegradoms, bei dem alle abgebauten Transkripte analysiert werden, konnte das neue Zielgen der miR399 Familie, MtPT8, identifiziert werden. Dieses codiert für einen Phosphat-Transporter, der diesen Studien zufolge ausschließlich in mykorrhizierten Wurzeln vorkommt und dessen Transkription auf arbuskelhaltige Zellen beschränkt ist. Mit der Identifizierung dieses neuen Zielgens konnte erstmals der Beweis für die direkte Verbindung der pflanzlichen Phosphathomöostase durch miR399 und der arbuskulären Mykorrhizasymbiose gezeigt werden. Die Untersuchung der physiologischen Funktion dieses mykorrhizaspezifischen Phosphat-Transporters bietet die Möglichkeit, die Zusammenhänge der phosphatabhängigen Regulation der Symbiose aufzuklären und weit reichende Einblicke in die Regulationsmechanismen während der Pflanze-Pilz-Interaktion zu erhalten. KW - Mykorrhizasymbiose KW - Phosphat KW - mikroRNA399 KW - Degradom KW - symbiose-relevante mikroRNA-Targets KW - Mycorrhizal symbiosis KW - phosphate KW - microRNA399 KW - degradome KW - symbiosis-relevant microRNA targets Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62106 ER - TY - THES A1 - Basler, Georg T1 - Mass-balanced randomization : a significance measure for metabolic networks T1 - Massebalancierte Randomisierung : ein Maß für Signifikanz in metabolischen Netzwerken N2 - Complex networks have been successfully employed to represent different levels of biological systems, ranging from gene regulation to protein-protein interactions and metabolism. Network-based research has mainly focused on identifying unifying structural properties, including small average path length, large clustering coefficient, heavy-tail degree distribution, and hierarchical organization, viewed as requirements for efficient and robust system architectures. Existing studies estimate the significance of network properties using a generic randomization scheme - a Markov-chain switching algorithm - which generates unrealistic reactions in metabolic networks, as it does not account for the physical principles underlying metabolism. Therefore, it is unclear whether the properties identified with this generic approach are related to the functions of metabolic networks. Within this doctoral thesis, I have developed an algorithm for mass-balanced randomization of metabolic networks, which runs in polynomial time and samples networks almost uniformly at random. The properties of biological systems result from two fundamental origins: ubiquitous physical principles and a complex history of evolutionary pressure. The latter determines the cellular functions and abilities required for an organism’s survival. Consequently, the functionally important properties of biological systems result from evolutionary pressure. By employing randomization under physical constraints, the salient structural properties, i.e., the smallworld property, degree distributions, and biosynthetic capabilities of six metabolic networks from all kingdoms of life are shown to be independent of physical constraints, and thus likely to be related to evolution and functional organization of metabolism. This stands in stark contrast to the results obtained from the commonly applied switching algorithm. In addition, a novel network property is devised to quantify the importance of reactions by simulating the impact of their knockout. The relevance of the identified reactions is verified by the findings of existing experimental studies demonstrating the severity of the respective knockouts. The results suggest that the novel property may be used to determine the reactions important for viability of organisms. Next, the algorithm is employed to analyze the dependence between mass balance and thermodynamic properties of Escherichia coli metabolism. The thermodynamic landscape in the vicinity of the metabolic network reveals two regimes of randomized networks: those with thermodynamically favorable reactions, similar to the original network, and those with less favorable reactions. The results suggest that there is an intrinsic dependency between thermodynamic favorability and evolutionary optimization. The method is further extended to optimizing metabolic pathways by introducing novel chemically feasibly reactions. The results suggest that, in three organisms of biotechnological importance, introduction of the identified reactions may allow for optimizing their growth. The approach is general and allows identifying chemical reactions which modulate the performance with respect to any given objective function, such as the production of valuable compounds or the targeted suppression of pathway activity. These theoretical developments can find applications in metabolic engineering or disease treatment. The developed randomization method proposes a novel approach to measuring the significance of biological network properties, and establishes a connection between large-scale approaches and biological function. The results may provide important insights into the functional principles of metabolic networks, and open up new possibilities for their engineering. N2 - In der Systembiologie und Bioinformatik wurden in den letzten Jahren immer komplexere Netzwerke zur Beschreibung verschiedener biologischer Prozesse, wie Genregulation, Protein-Interaktionen und Stoffwechsel (Metabolismus) rekonstruiert. Ein Hauptziel der Forschung besteht darin, die strukturellen Eigenschaften von Netzwerken für Vorhersagen über deren Funktion nutzbar zu machen, also eine Verbindung zwischen Netzwerkeigenschaften und Funktion herzustellen. Die netzwerkbasierte Forschung zielte bisher vor allem darauf ab, gemeinsame Eigenschaften von Netzwerken unterschiedlichen Ursprungs zu entdecken. Dazu zählen die durchschnittliche Länge von Verbindungen im Netzwerk, die Häufigkeit redundanter Verbindungen, oder die hierarchische Organisation der Netzwerke, welche als Voraussetzungen für effiziente Kommunikationswege und Robustheit angesehen werden. Dabei muss zunächst bestimmt werden, welche Eigenschaften für die Funktion eines Netzwerks von besonderer Bedeutung (Signifikanz) sind. Die bisherigen Studien verwenden dafür eine Methode zur Erzeugung von Zufallsnetzwerken, welche bei der Anwendung auf Stoffwechselnetzwerke unrealistische chemische Reaktionen erzeugt, da sie physikalische Prinzipien missachtet. Es ist daher fraglich, ob die Eigenschaften von Stoffwechselnetzwerken, welche mit dieser generischen Methode identifiziert werden, von Bedeutung für dessen biologische Funktion sind, und somit für aussagekräftige Vorhersagen in der Biologie verwendet werden können. In meiner Dissertation habe ich eine Methode zur Erzeugung von Zufallsnetzwerken entwickelt, welche physikalische Grundprinzipien berücksichtigt, und somit eine realistische Bewertung der Signifikanz von Netzwerkeigenschaften ermöglicht. Die Ergebnisse zeigen anhand der Stoffwechselnetzwerke von sechs Organismen, dass viele der meistuntersuchten Netzwerkeigenschaften, wie das Kleine-Welt-Phänomen und die Vorhersage der Biosynthese von Stoffwechselprodukten, von herausragender Bedeutung für deren biologische Funktion sind, und somit für Vorhersagen und Modellierung verwendet werden können. Die Methode ermöglicht die Identifikation von chemischen Reaktionen, welche wahrscheinlich von lebenswichtiger Bedeutung für den Organismus sind. Weiterhin erlaubt die Methode die Vorhersage von bisher unbekannten, aber physikalisch möglichen Reaktionen, welche spezifische Zellfunktionen, wie erhöhtes Wachstum in Mikroorganismen, ermöglichen könnten. Die Methode bietet einen neuartigen Ansatz zur Bestimmung der funktional relevanten Eigenschaften biologischer Netzwerke, und eröffnet neue Möglichkeiten für deren Manipulation. KW - Bioinformatik KW - Metabolische Netzwerke KW - Signifikanz KW - Randomisierung KW - Nullmodell KW - computational biology KW - metabolic networks KW - significance KW - randomization KW - null model Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62037 ER - TY - THES A1 - Deneke, Carlus T1 - Theory of mRNA degradation T1 - Theoretische Beschreibung des Abbaus von mRNA N2 - One of the central themes of biology is to understand how individual cells achieve a high fidelity in gene expression. Each cell needs to ensure accurate protein levels for its proper functioning and its capability to proliferate. Therefore, complex regulatory mechanisms have evolved in order to render the expression of each gene dependent on the expression level of (all) other genes. Regulation can occur at different stages within the framework of the central dogma of molecular biology. One very effective and relatively direct mechanism concerns the regulation of the stability of mRNAs. All organisms have evolved diverse and powerful mechanisms to achieve this. In order to better comprehend the regulation in living cells, biochemists have studied specific degradation mechanisms in detail. In addition to that, modern high-throughput techniques allow to obtain quantitative data on a global scale by parallel analysis of the decay patterns of many different mRNAs from different genes. In previous studies, the interpretation of these mRNA decay experiments relied on a simple theoretical description based on an exponential decay. However, this does not account for the complexity of the responsible mechanisms and, as a consequence, the exponential decay is often not in agreement with the experimental decay patterns. We have developed an improved and more general theory of mRNA degradation which provides a general framework of mRNA expression and allows describing specific degradation mechanisms. We have made an attempt to provide detailed models for the regulation in different organisms. In the yeast S. cerevisiae, different degradation pathways are known to compete and furthermore most of them rely on the biochemical modification of mRNA molecules. In bacteria such as E. coli, degradation proceeds primarily endonucleolytically, i.e. it is governed by the initial cleavage within the coding region. In addition, it is often coupled to the level of maturity and the size of the polysome of an mRNA. Both for S. cerevisiae and E. coli, our descriptions lead to a considerable improvement of the interpretation of experimental data. The general outcome is that the degradation of mRNA must be described by an age-dependent degradation rate, which can be interpreted as a consequence of molecular aging of mRNAs. Within our theory, we find adequate ways to address this much debated topic from a theoretical perspective. The improvements of the understanding of mRNA degradation can be readily applied to further comprehend the mRNA expression under different internal or environmental conditions such as after the induction of transcription or stress application. Also, the role of mRNA decay can be assessed in the context of translation and protein synthesis. The ultimate goal in understanding gene regulation mediated by mRNA stability will be to identify the relevance and biological function of different mechanisms. Once more quantitative data will become available, our description allows to elaborate the role of each mechanism by devising a suitable model. N2 - Ein zentrales Ziel der modernen Biologie ist es, ein umfassendes Verständnis der Genexpression zu erlangen. Die fundamentalen Prozesse sind im zentralen Dogma der Genexpression zusammengefasst: Die genetische Information wird von DNA in Boten-RNAs (mRNA) transkribiert und im Prozess der Translation von mRNA in Proteine übersetzt. Zum Erhalt ihrer Funktionalität und der Möglichkeit von Wachstum und Fortpflanzung muss in jeder Zelle und für jedes Gen die optimale Proteinkonzentration akkurat eingestellt werden. Hierzu hat jeder Organismus detaillierte Regulationsmechanismen entwickelt. Regulation kann auf allen Stufen der Genexpression erfolgen, insbesondere liefert der Abbau der mRNA-Moleküle einen effizienten und direkten Kontrollmechanismus. Daher sind in allen Lebewesen spezifische Mechanismen - die Degradationsmechanismen - entstanden, welche aktiv den Abbau befördern. Um ein besseres Verständnis von den zugrunde liegenden Prozessen zu erlangen, untersuchen Biochemiker die Degradationsmechanismen im Detail. Gleichzeitig erlauben moderne molekularbiologische Verfahren die simultane Bestimmung der Zerfallskurven von mRNA für alle untersuchten Gene einer Zelle. Aus theoretischer Perspektive wird der Zerfall der mRNA-Menge als exponentieller Zerfall mit konstanter Rate betrachtet. Diese Betrachtung dient der Interpretation der zugrunde liegenden Experimente, berücksichtigt aber nicht die fundierten Kenntnisse über die molekularen Mechanismen der Degradation. Zudem zeigen viele experimentelle Studien ein deutliches Abweichen von einem exponentiellen Zerfall. In der vorliegenden Doktorarbeit wird daher eine erweiterte theoretische Beschreibung für die Expression von mRNA-Molekülen eingeführt. Insbesondere lag der Schwerpunkt auf einer verbesserten Beschreibung des Prozesses der Degradation. Die Genexpression kann als ein stochastischer Prozess aufgefasst werden, in dem alle Einzelprozesse auf zufällig ablaufenden chemischen Reaktionen basieren. Die Beschreibung erfolgt daher im Rahmen von Methoden der stochastischen Modellierung. Die fundamentale Annahme besteht darin, dass jedes mRNA-Molekül eine zufällige Lebenszeit hat und diese Lebenszeit für jedes Gen durch eine statistische Lebenszeitverteilung gegeben ist. Ziel ist es nun, spezifische Lebenszeitverteilungen basierend auf den molekularen Degradationsmechanismen zu finden. In dieser Arbeit wurden theoretische Modelle für die Degradation in zwei verschiedenen Organismen entwickelt. Zum einen ist bekannt, dass in eukaryotischen Zellen wie dem Hefepilz S. cerevisiae mehrere Mechanismen zum Abbau der mRNA-Moleküle in Konkurrenz zueinander stehen. Zudem ist der Abbau durch mehrere geschwindigkeitsbestimmende biochemische Schritte charakterisiert. In der vorliegenden Arbeit wurden diese Feststellungen durch ein theoretisches Modell beschrieben. Eine Markow-Kette stellte sich als sehr erfolgreich heraus, um diese Komplexität in eine mathematisch-fassbare Form abzubilden. Zum anderen wird in Kolibakterien die Degradation überwiegend durch einen initialen Schnitt in der kodierenden Sequenz der mRNA eingeleitet. Des Weiteren gibt es komplexe Wechselwirkungen mit dem Prozess der Translation. Die dafür verantwortlichen Enzyme - die Ribosomen - schützen Teile der mRNA und vermindern dadurch deren Zerfall. In der vorliegenden Arbeit wurden diese Zusammenhänge im Rahmen eines weiteren spezifischen, theoretischen Modells untersucht. Beide Mechanismen konnten an experimentellen Daten verifiziert werden. Unter anderem konnten dadurch die Interpretation der Zerfallsexperimente deutlich verbessert und fundamentale Eigenschaften der mRNA-Moleküle bestimmt werden. Ein Vorteil der statistischen Herangehensweise in dieser Arbeit liegt darin, dass theoretische Konzepte für das molekulare Altern der mRNAs entwickelt werden konnten. Mit Hilfe dieser neuentwickelten Methode konnte gezeigt werden, dass sich die Komplexität der Abbaumechanismen in einem Alterungsprozess manifestiert. Dieser kann mit der Lebenserwartung von einzelnen mRNA-Molekülen beschrieben werden. In dieser Doktorarbeit wurde eine verallgemeinerte theoretische Beschreibung des Abbaus von mRNAMolek ülen entwickelt. Die zentrale Idee basiert auf der Verknüpfung von experimentellen Zerfallsmessungen mit den biochemischen Mechanismen der Degradation. In zukünftigen experimentellen Untersuchungen können die entwickelten Verfahren angewandt werden, um eine genauere Interpretation der Befunde zu ermöglichen. Insbesondere zeigt die Arbeit auf, wie verschiedene Hypothesen über den Degradationsmechanismus anhand eines geeigneten mathematischen Modells durch quantitative Experimente verifiziert oder falsifiziert werden können. KW - Abbau von Boten-RNS KW - Stochastische Genexpression KW - Posttranskriptionale Genregulation KW - Nichtexponentieller Zerfall von mRNA KW - Molekulares Altern KW - Degradation of messenger RNA KW - Stochastic gene expression KW - Post-transcriptional gene regulation KW - Non-exponential mRNA decay KW - Molecular Aging Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61998 ER - TY - THES A1 - Haakh, Harald Richard T1 - Fluctuation-mediated interactions of atoms and surfaces on a mesoscopic scale T1 - Fluktuationsinduzierte Wechselwirkungen zwischen Atomen und Oberflächen auf mesoskopischen Skalen N2 - Thermal and quantum fluctuations of the electromagnetic near field of atoms and macroscopic bodies play a key role in quantum electrodynamics (QED), as in the Lamb shift. They lead, e.g., to atomic level shifts, dispersion interactions (Van der Waals-Casimir-Polder interactions), and state broadening (Purcell effect) because the field is subject to boundary conditions. Such effects can be observed with high precision on the mesoscopic scale which can be accessed in micro-electro-mechanical systems (MEMS) and solid-state-based magnetic microtraps for cold atoms (‘atom chips’). A quantum field theory of atoms (molecules) and photons is adapted to nonequilibrium situations. Atoms and photons are described as fully quantized while macroscopic bodies can be included in terms of classical reflection amplitudes, similar to the scattering approach of cavity QED. The formalism is applied to the study of nonequilibrium two-body potentials. We then investigate the impact of the material properties of metals on the electromagnetic surface noise, with applications to atomic trapping in atom-chip setups and quantum computing, and on the magnetic dipole contribution to the Van der Waals-Casimir-Polder potential in and out of thermal equilibrium. In both cases, the particular properties of superconductors are of high interest. Surface-mode contributions, which dominate the near-field fluctuations, are discussed in the context of the (partial) dynamic atomic dressing after a rapid change of a system parameter and in the Casimir interaction between two conducting plates, where nonequilibrium configurations can give rise to repulsion. N2 - Thermische und Quantenfluktuationen des elektromagnetischen Nahfelds von Atomen und makroskopischen Körpern spielen eine Schlüsselrolle in der Quantenelektrodynamik (QED), wie etwa beim Lamb-Shift. Sie führen z.B. zur Verschiebung atomarer Energieniveaus, Dispersionswechselwirkungen (Van der Waals-Casimir-Polder-Wechselwirkungen) und Zustandsverbreiterungen (Purcell-Effekt), da das Feld Randbedingungen unterliegt. Mikroelektromechanische Systeme (MEMS) und festkörperbasierte magnetische Fallen für kalte Atome (‘Atom-Chips’) ermöglichen den Zugang zu mesoskopischen Skalen, auf denen solche Effekte mit hoher Genauigkeit beobachtet werden können. Eine Quantenfeldtheorie für Atome (Moleküle) und Photonen wird an Nichtgleichgewichtssituationen angepasst. Atome und Photonen werden durch vollständig quantisierte Felder beschrieben, während die Beschreibung makroskopischer Körper, ähnlich wie im Streuformalismus (scattering approach) der Resonator-QED, durch klassische Streuamplituden erfolgt. In diesem Formalismus wird das Nichtgleich- gewichts-Zweiteilchenpotential diskutiert. Anschließend wird der Einfluss der Materialeigenschaften von normalen Metallen auf das elektromagnetische Oberflächenrauschen, das für magnetische Fallen für kalte Atome auf Atom-Chips und für Quantencomputer-Anwendungen von Bedeutung ist, sowie auf den Beitrag des magnetischen Dipolmoments zum Van der Waals-Casimir-Polder-Potential im thermisch- en Gleichgewicht und in Nichtgleichgewichtssituationen untersucht. In beiden Fällen sind die speziellen Eigenschaften von Supraleitern von besonderem Interesse. Beiträge von Oberflächenmoden, die die Feldfluktuationen im Nahfeld dominieren, werden im Kontext des (partiellen) dynamischen Dressing nach einer raschen Änderung eines Systemparameters sowie für die Casimir-Wechselwirkung zweier metallischer Platten diskutiert, zwischen denen in Nichtgleichgewichtssituationen Abstoßung auftreten kann. KW - Resonator Quantenelektrodynamik KW - Atom-Oberflächenwechselwirkung KW - Van der Waals Kräfte KW - Atom-Chips KW - Quantenfluktuationen KW - cavity quantum electrodynamics KW - atom-surface interaction KW - Van der Waals forces KW - atom chips KW - quantum fluctuations Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61819 ER - TY - THES A1 - Kiel, Mareike T1 - Static and ultrafast optical properties of nanolayered composites : gold nanoparticles embedded in polyelectrolytes T1 - Statische und ultraschnelle optische Eigenschaften von nanogeschichteten Kompositmaterialien. Gold-Nanopartikel in Polyelektrolytschichten. N2 - In the course of this thesis gold nanoparticle/polyelectrolyte multilayer structures were prepared, characterized, and investigated according to their static and ultrafast optical properties. Using the dip-coating or spin-coating layer-by-layer deposition method, gold-nanoparticle layers were embedded in a polyelectrolyte environment with high structural perfection. Typical structures exhibit four repetition units, each consisting of one gold-particle layer and ten double layers of polyelectrolyte (cationic+anionic polyelectrolyte). The structures were characterized by X-ray reflectivity measurements, which reveal Bragg peaks up to the seventh order, evidencing the high stratication of the particle layers. In the same measurements pronounced Kiessig fringes were observed, which indicate a low global roughness of the samples. Atomic force microscopy (AFM) images veried this low roughness, which results from the high smoothing capabilities of polyelectrolyte layers. This smoothing effect facilitates the fabrication of stratified nanoparticle/polyelectrolyte multilayer structures, which were nicely illustrated in a transmission electron microscopy image. The samples' optical properties were investigated by static spectroscopic measurements in the visible and UV range. The measurements revealed a frequency shift of the reflectance and of the plasmon absorption band, depending on the thickness of the polyelectrolyte layers that cover a nanoparticle layer. When the covering layer becomes thicker than the particle interaction range, the absorption spectrum becomes independent of the polymer thickness. However, the reflectance spectrum continues shifting to lower frequencies (even for large thicknesses). The range of plasmon interaction was determined to be in the order of the particle diameter for 10 nm, 20 nm, and 150 nm particles. The transient broadband complex dielectric function of a multilayer structure was determined experimentally by ultrafast pump-probe spectroscopy. This was achieved by simultaneous measurements of the changes in the reflectance and transmittance of the excited sample over a broad spectral range. The changes in the real and imaginary parts of the dielectric function were directly deduced from the measured data by using a recursive formalism based on the Fresnel equations. This method can be applied to a broad range of nanoparticle systems where experimental data on the transient dielectric response are rare. This complete experimental approach serves as a test ground for modeling the dielectric function of a nanoparticle compound structure upon laser excitation. N2 - Im Rahmen dieser Arbeit wurden Gold-Nanopartikel/Polyelektrolyt Multischichtstrukturen hergestellt, strukturell charakterisiert und bezüglich ihrer optischen Eigenschaften sowohl statisch als auch zeitaufgelöst analysiert. Die Strukturen wurden mithilfe der Dip-coating oder der Spin-coating Methode hergestellt. Beide Methoden ermöglichen das Einbetten einzelner Partikellagen in eine Polyelektrolytumgebung. Typische Strukturen in dieser Arbeit bestehen aus vier Wiederholeinheiten, wobei jede aus einer Nanopartikelschicht und zehn Polyelektrolyt-Doppellagen (kationisches und anionisches Polyelektrolyt) zusammengesetzt ist. Die Stratizierung der Gold-Nanopartikellagen wurde mittels Röntgenreflektometrie-Messungen im Kleinwinkelbereich nachgewiesen, welche Bragg Reflexionen bis zur siebten Ordnung aufzeigen. Das ausgeprägte Kiessig Interferenzmuster dieser Messungen weist zudem auf eine geringe globale Rauheit hin, die durch Oberflächenanalysen mit einem Rasterkraftmikroskop bestätigt werden konnte. Diese geringe Rauheit resultiert aus den glättenden Eigenschaften der Polyelektrolyte, die die Herstellung von Multilagensystemen mit mehreren Partikellagen erst ermöglichen. Die Aufnahme eines Transmissionselektronenmikroskops veranschaulicht eindrucksvoll die Anordnung der Partikel in einzelne Schichten. Durch photospektroskopische Messungen wurden die optischen Eigenschaften der Strukturen im UV- und sichtbaren Bereich untersucht. Beispielsweise wird eine Verschiebung und Verstärkung der Plasmonenresonanz beobachtet, wenn eine Goldnanopartikellage mit transparenten Polyelektrolyten beschichtet wird. Erst wenn die bedeckende Schicht dicker als die Reichweite der Plasmonen wird, bleibt die Absorption konstant. Die spektrale Reflektivität jedoch ändert sich auch mit jeder weiteren adsorbierten Polyelektrolytschicht. Die Reichweite der Plasmonenresonanz konnte auf diese Art für Partikel der Größe 10 nm, 20 nm und 150 nm bestimmt werden. Die Ergebnisse wurden im Kontext einer Effektiven Mediums Theorie diskutiert. Die komplexe dielektrische Funktion einer Multilagenstruktur wurde zeitabhängig nach Laserpulsanregung für einen breiten spektralen Bereich bestimmt. Dazu wurden zuerst die Änderungen der Reflektivität und Transmittivität simultan mittels der Pump-Probe (Anrege-Abtast) Spektroskopie gemessen. Anschließend wurden aus diesen Daten, mithilfe eines Formalismus, der auf den Fresnelschen Formeln basiert, die Änderungen im Real- und Imaginärteil der dielektrischen Funktion ermittelt. Diese Methode eignet sich zur Bestimmung der transienten dielektrischen Funktion einer Vielzahl von Nanopartikelsystemen. Der rein experimentelle Ansatz ermöglicht es, effektive Medien Theorien und Simulationen der dielektrischen Funktion nach Laserpulsanregung zu überprüfen. KW - Nanopartikel KW - Polyelektrolyte KW - Dielektrische Funktion KW - Anrege-Abtast Spektroskopie KW - nanoparticles KW - polyelectrolytes KW - dielectric function KW - pump-probe spectroscopy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61823 ER - TY - THES A1 - Agamy, Ibrahim T1 - Social networking software in higher education : investigating the influence of using different interaction levels on learners’ achievement and satisfaction T1 - Social-Networking-Software in der Hochschulbildung : Untersuchung des Einflusses von Interaktion auf verschiedenen Ebenen auf die Zufriedenheit und Leistung von Lernenden N2 - Education in knowledge society is challenged with a lot of problems in particular the interaction between the teacher and learner in social networking software as a key factor affects the learners’ learning and satisfaction (Prammanee, 2005) where “to teach is to communicate, to communicate is to interact, to interact is to learn” (Hefzallah, 2004, p. 48). Analyzing the relation between teacher-learner interaction from a side and learning outcome and learners’ satisfaction from the other side, some basic problems regarding a new learning culture using social networking software are discussed. Most of the educational institutions pay a lot of attentions to the equipments and emerging Information and Communication Technologies (ICTs) in learning situations. They try to incorporate ICT into their institutions as teaching and learning environments. They do this because they expect that by doing so they will improve the outcome of the learning process. Despite this, the learning outcome as reported in most studies is very limited, because the expectations of self-directed learning are much higher than the reality. Findings from an empirical study (investigating the role of teacher-learner interaction through new digital media wiki in higher education and learning outcome and learner’s satisfaction) are presented recommendations about the necessity of pedagogical interactions in support of teaching and learning activities in wiki courses in order to improve the learning outcome. Conclusions show the necessity for significant changes in the approach of vocational teacher training programs of online teachers in order to meet the requirements of new digital media in coherence with a new learning culture. These changes have to address collaborative instead of individual learning and ICT wiki as a tool for knowledge construction instead of a tool for gathering information. N2 - Bildung in der Wissensgesellschaft ist mit einer Vielzahl von Herausforderungen verbunden. Insbesondere die Interaktion zwischen Lehrenden und Lernenden ist in sozialen Netzwerken durch Software bestimmt, die als ein wesentlicher Faktor den Lernerfolg der Lernenden und ihre Zufriedenheit bestimmt (Prammanee, 2005), da “to teach is to communicate, to communicate is to interact, to interact is to learn” (Hefzallah, 2004, S. 48). Die Analyse der Art der Lehrer-Schüler-Interaktion auf der einen Seite und das Lernergebnis und die Zufriedenheit der Lernenden auf der anderen Seite, sind einige grundlegende zu diskutierende Herausforderungen hinsichtlich einer neuen Lernkultur mit Social-Networking-Software. Eine Vielzahl der Bildungseinrichtungen achten daher auf die Ausstattung mit Ausrüstungen und zugehörigen Informations- und Kommunikationstechnologien (IKT) zur Gestaltung von Lernsituationen. Sie versuchen die IKT in ihren Institutionen als Lehr-und Lernumgebungen zu integrieren, da sie damit einen positiven Effekt auf den Ausgang des Lernprozesses verbinden. Trotzdem sind die Lernergebnisse, die in den meisten Studien untersucht wurden, sehr begrenzt. Es zeigt sich, dass die Erwartungen der Lehrkräfte an selbstgesteuertes Lernen viel höher sind, als die Ergebnisse der Studien repräsentieren. Auf Grundlage dieser Ausgangssituation wurde eine empirischen Studie (Untersuchung der Rolle der Lehrer-Schüler-Interaktion durch neue digitale Medien Wiki in der Hochschulbildung und des Lernerfolgs und der Zufriedenheit der Lernenden) durchgeführt. Aus den Ergebnissen wurden Empfehlungen über die Notwendigkeit der pädagogischen Interaktionen zur Unterstützung von Lehr-und Lernaktivitäten in Wiki Kursen abgeleitet, um den Lernerfolg zu verbessern. Die Schlussfolgerungen zeigen die Notwendigkeit für deutliche Änderungen in der Herangehensweise der beruflichen Bildung der Online-Lehrer, um die Anforderungen der neuen digitalen Medien im Einklang mit einer neuen Lernkultur zu erfüllen. Diese Veränderungen beeinhalten im Kern kooperatives statt individuelles Lernen und den Einsatz von IKT-Wiki als ein Werkzeug für die Wissenskonstruktion statt für das Sammeln von Informationen. KW - Web 2.0 KW - Sozial Vernetzung Software KW - Lern-Interaktion KW - Hochschulbildung KW - Wiki KW - Web 2.0 KW - Social networking software KW - Wiki KW - Learning interaction KW - Higher education Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61888 ER - TY - THES A1 - Rivera Hernández, Sergio T1 - Tensorial spacetime geometries carrying predictive, interpretable and quantizable matter dynamics T1 - Tensorielle Raumzeit-Geometrien, welche prädiktive, interpretierbare und quantisierbare Materiefeld-Dynamiken tragen können N2 - Which tensor fields G on a smooth manifold M can serve as a spacetime structure? In the first part of this thesis, it is found that only a severely restricted class of tensor fields can provide classical spacetime geometries, namely those that can carry predictive, interpretable and quantizable matter dynamics. The obvious dependence of this characterization of admissible tensorial spacetime geometries on specific matter is not a weakness, but rather presents an insight: it was Maxwell theory that justified Einstein to promote Lorentzian manifolds to the status of a spacetime geometry. Any matter that does not mimick the structure of Maxwell theory, will force us to choose another geometry on which the matter dynamics of interest are predictive, interpretable and quantizable. These three physical conditions on matter impose three corresponding algebraic conditions on the totally symmetric contravariant coefficient tensor field P that determines the principal symbol of the matter field equations in terms of the geometric tensor G: the tensor field P must be hyperbolic, time-orientable and energy-distinguishing. Remarkably, these physically necessary conditions on the geometry are mathematically already sufficient to realize all kinematical constructions familiar from Lorentzian geometry, for precisely the same structural reasons. This we were able to show employing a subtle interplay of convex analysis, the theory of partial differential equations and real algebraic geometry. In the second part of this thesis, we then explore general properties of any hyperbolic, time-orientable and energy-distinguishing tensorial geometry. Physically most important are the construction of freely falling non-rotating laboratories, the appearance of admissible modified dispersion relations to particular observers, and the identification of a mechanism that explains why massive particles that are faster than some massless particles can radiate off energy until they are slower than all massless particles in any hyperbolic, time-orientable and energy-distinguishing geometry. In the third part of the thesis, we explore how tensorial spacetime geometries fare when one wants to quantize particles and fields on them. This study is motivated, in part, in order to provide the tools to calculate the rate at which superluminal particles radiate off energy to become infraluminal, as explained above. Remarkably, it is again the three geometric conditions of hyperbolicity, time-orientability and energy-distinguishability that allow the quantization of general linear electrodynamics on an area metric spacetime and the quantization of massive point particles obeying any admissible dispersion relation. We explore the issue of field equations of all possible derivative order in rather systematic fashion, and prove a practically most useful theorem that determines Dirac algebras allowing the reduction of derivative orders. The final part of the thesis presents the sketch of a truly remarkable result that was obtained building on the work of the present thesis. Particularly based on the subtle duality maps between momenta and velocities in general tensorial spacetimes, it could be shown that gravitational dynamics for hyperbolic, time-orientable and energy distinguishable geometries need not be postulated, but the formidable physical problem of their construction can be reduced to a mere mathematical task: the solution of a system of homogeneous linear partial differential equations. This far-reaching physical result on modified gravity theories is a direct, but difficult to derive, outcome of the findings in the present thesis. Throughout the thesis, the abstract theory is illustrated through instructive examples. N2 - Welche Tensorfelder G auf einer glatten Mannigfaltigkeit M können eine Raumzeit-Geometrie beschreiben? Im ersten Teil dieser Dissertation wird es gezeigt, dass nur stark eingeschränkte Klassen von Tensorfeldern eine Raumzeit-Geometrie darstellen können, nämlich Tensorfelder, die eine prädiktive, interpretierbare und quantisierbare Dynamik für Materiefelder ermöglichen. Die offensichtliche Abhängigkeit dieser Charakterisierung erlaubter tensorieller Raumzeiten von einer spezifischen Materiefelder-Dynamik ist keine Schwäche der Theorie, sondern ist letztlich genau das Prinzip, das die üblicherweise betrachteten Lorentzschen Mannigfaltigkeiten auszeichnet: diese stellen die metrische Geometrie dar, welche die Maxwellsche Elektrodynamik prädiktiv, interpretierbar und quantisierbar macht. Materiefeld-Dynamiken, welche die kausale Struktur von Maxwell-Elektrodynamik nicht respektieren, zwingen uns, eine andere Geometrie auszuwählen, auf der die Materiefelder-Dynamik aber immer noch prädiktiv, interpretierbar und quantisierbar sein muss. Diesen drei Voraussetzungen an die Materie entsprechen drei algebraische Voraussetzungen an das total symmetrische kontravariante Tensorfeld P, welches das Prinzipalpolynom der Materiefeldgleichungen (ausgedrückt durch das grundlegende Tensorfeld G) bestimmt: das Tensorfeld P muss hyperbolisch, zeitorientierbar und energie-differenzierend sein. Diese drei notwendigen Bedingungen an die Geometrie genügen, um alle aus der Lorentzschen Geometrie bekannten kinematischen Konstruktionen zu realisieren. Dies zeigen wir im ersten Teil der vorliegenden Arbeit unter Verwendung eines teilweise recht subtilen Wechselspiels zwischen konvexer Analysis, der Theorie partieller Differentialgleichungen und reeller algebraischer Geometrie. Im zweiten Teil dieser Dissertation erforschen wir allgemeine Eigenschaften aller solcher hyperbolischen, zeit-orientierbaren und energie-differenzierenden Geometrien. Physikalisch wichtig sind der Aufbau von frei fallenden und nicht rotierenden Laboratorien, das Auftreten modifizierter Energie-Impuls-Beziehungen und die Identifizierung eines Mechanismus, der erklärt, warum massive Teilchen, die sich schneller als einige masselosse Teilchen bewegen, Energie abstrahlen können, aber nur bis sie sich langsamer als alle masselossen Teilchen bewegen. Im dritten Teil der Dissertation ergründen wir die Quantisierung von Teilchen und Feldern auf tensoriellen Raumzeit-Geometrien, die die obigen physikalischen Bedingungen erfüllen. Eine wichtige Motivation dieser Untersuchung ist es, Techniken zur Berechnung der Zerfallsrate von Teilchen zu berechnen, die sich schneller als langsame masselose Teilchen bewegen. Wir finden, dass es wiederum die drei zuvor im klassischen Kontext identifizierten Voraussetzungen (der Hyperbolizität, Zeit-Orientierbarkeit und Energie-Differenzierbarkeit) sind, welche die Quantisierung allgemeiner linearer Elektrodynamik auf einer flächenmetrischen Raumzeit und die Quantizierung massiver Teilchen, die eine physikalische Energie-Impuls-Beziehung respektieren, erlauben. Wir erkunden auch systematisch, wie man Feldgleichungen aller Ableitungsordnungen generieren kann und beweisen einen Satz, der verallgemeinerte Dirac-Algebren bestimmt und die damit Reduzierung des Ableitungsgrades einer physikalischen Materiefeldgleichung ermöglicht. Der letzte Teil der vorliegenden Schrift skizziert ein bemerkenswertes Ergebnis, das mit den in dieser Dissertation dargestellten Techniken erzielt wurde. Insbesondere aufgrund der hier identifizierten dualen Abbildungen zwischen Teilchenimpulsen und -geschwindigkeiten auf allgemeinen tensoriellen Raumzeiten war es möglich zu zeigen, dass man die Gravitationsdynamik für hyperbolische, zeit-orientierbare und energie-differenzierende Geometrien nicht postulieren muss, sondern dass sich das Problem ihrer Konstruktion auf eine rein mathematische Aufgabe reduziert: die Lösung eines homogenen linearen Differentialgleichungssystems. Dieses weitreichende Ergebnis über modifizierte Gravitationstheorien ist eine direkte (aber schwer herzuleitende) Folgerung der Forschungsergebnisse dieser Dissertation. Die abstrakte Theorie dieser Doktorarbeit wird durch mehrere instruktive Beispiele illustriert. KW - refined spacetime geometries KW - modified dispersion relations KW - modified gravitational dynamics KW - Finsler geometry KW - quantization of field theories Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61869 ER - TY - THES A1 - Fleischer, Julia T1 - Policy advice and institutional politics : a comparative analysis of Germany and Britain T1 - Politikberatung und Institutionenpolitik : eine vergleichende Analyse für Deutschland und Großbritannien N2 - Die Studie schließt an die Debatte in der vergleichenden politikwissenschaftlichen Verwaltungsforschung an, die sich mit der Rolle interner Beratungsakteure in Regierungsorganisationen beschäftigt. Ziel dieser Studie ist es, die Mechanismen zu erklären, durch die interne Beratungsakteure die ihnen zugeschriebene Bedeutung im exekutiven Entscheidungsprozess erlangen. Dabei werden jene Organisationseinheiten untersucht, die proaktiv an exekutiven Entscheidungsprozessen mitwirken und mit ihrer Beratung politischer Akteure in Konkurrenz zur Ministerialverwaltung stehen können. Die Einflussmechanismen dieser Akteure in der exekutiven Entscheidungsfindung werden als Formen einer "Institutionenpolitik" aufgefasst, bei der Akteure die institutionellen Bedingungen von Politikformulierungsprozessen bzw. die "Spielregeln exekutiver Entscheidungsfindung" verändern, um ihre eigene Position bzw. die ihres "Klienten" zu stärken. Das theoretische Argument dieser Arbeit folgt der neo-institutionalistischen Wende in der Organisationstheorie und definiert Institutionenpolitik als graduelle Institutionalisierungsprozesse zwischen Institutionen und organisationalen Akteuren, wobei einem weiten Institutionenbegriff folgend die Objekte solcher Veränderungsprozesse durch regulative, normative und kognitive Säulen gekennzeichnet sind. In Anwendung des "power-distributional approach" lassen sich graduelle Institutionalisierungsprozesse durch institutionenbezogene Charakteristika erklären, d.h. die Beschaffenheit der Objekte von Institutionenpolitik, insbesondere die Interpretationsfreiheit ihrer Anwendung, sowie die Restriktionen des institutionellen Kontexts. Zudem lässt sich Institutionenpolitik durch akteursbezogene Charakteristika erklären, d.h. den Ambitionen der Akteure sich als "potentielle institutionelle Agenten" zu engagieren. Diese beiden Erklärungsdimensionen drücken sich in vier idealtypischen Mechanismen von Institutionenpolitik aus: Sedimentation, Ersetzung, Drift, und Konversion, die mit vier Agententypen korrespondieren. Die Studie untersucht die institutionenpolitischen Ambitionen der Akteure explorativ, die Relevanz des institutionellen Kontexts wird mithilfe von Erwartungshypothesen zu den Effekten von vier Merkmalen analysiert, die in der bestehenden Debatte als relevant gelten: (1) die Parteienzusammensetzung der Regierung, (2) die Strukturprinzipien von Kabinettsentscheidungen, (3) die Verwaltungstradition sowie (4) die formale Politisierung der Ministerialverwaltung. Die Studie folgt einem "most similar systems design" und führt qualitative Fallstudien zur Rolle interner Beratungseinheiten im Zentrum deutscher und britischer Regierungsorganisationen, d.h. der Regierungszentrale und dem Finanzministerium, über einen längeren Zeitraum durch (1969/1970-2005). Es werden jeweils drei Zeitperioden pro Untersuchungsland betrachtet, die britischen Fallstudien analysieren die Beratungsakteure im Cabinet Office, Prime Minister's Office und dem Finanzministerium unter den Premierministern Heath (1970-74), Thatcher (1979-87) und Blair (1997-2005). Die deutschen Fallstudien untersuchen die Beratungsakteure im Bundeskanzleramt und dem Bundesfinanzministerium unter den Bundeskanzlern Brandt (1969-74), Kohl (1982-1987) und Schröder (1998-2005). Für die empirische Untersuchung wurden die Ergebnisse einer Dokumentenanalyse mit den Erkenntnissen aus 75 semi-strukturierten Experteninterviews trianguliert. Die vergleichende Analyse zeigt unterschiedliche Muster von Institutionenpolitik. Die deutschen Beratungsakteure agieren anfänglich in Ersetzung, später vornehmlich in Sedimentation sowie Drift, d.h. ihre institutionenpolitischen Aktivitäten widmen sich nach anfänglicher Ersetzung bestehender institutioneller Grundlagen zunehmend der Addition neuer Elemente sowie der deliberativen Nicht-Entscheidung zur Anpassung existierender institutioneller Grundlagen an Umweltveränderungen. Die britischen Beratungsakteure sind zumeist in Ersetzung sowie Konversion engagiert, trotz gelegentlicher Sedimentation, d.h. einer direkten Ersetzung bestehender institutioneller Grundlagen durch neue Spielregeln exekutiver Entscheidungsfindung sowie einer bewussten Umwandlung und Neuausrichtung existierender institutionellen Grundlagen, gelegentlich auch eine Addition neuer Elemente zu bestehenden Regeln. Die institutionen- und akteursspezifischen Charakteristika sind für diese Muster von Institutionenpolitik erklärungsrelevant. Erstens weist die Studie nach, dass der institutionelle Kontext die institutionenpolitischen Aktivitäten in Deutschland beschränkt und in Großbritannien begünstigt. Zweitens ist die Interpretationsfreiheit der Anwendung institutionenpolitischer Objekte bedeutsam, wie sich anhand der institutionenpolitischen Ambitionen der Akteure im Zeitverlauf und im Ländervergleich zeigt und somit drittens bestätigt, dass diese Interessen der Akteure an Institutionenwandel die Mechanismen von Institutionenpolitik beeinflussen. Die Arbeit schließt mit der Erkenntnis, dass die Rolle interner Beratungseinheiten in der exekutiven Politikformulierung nicht nur aus ihren inhaltlichen, parteistrategischen oder medial-beratenden Funktionen für politische Akteure in Regierungsämtern folgt, sondern insbesondere aus ihren institutionenpolitischen Aktivitäten, deren Resultate die institutionellen Restriktionen aller Akteure in exekutiven Entscheidungsprozessen beeinflussen – und somit auch ihre eigene Rolle in diesen Prozessen. N2 - This study follows the debate in comparative public administration research on the role of advisory arrangements in central governments. The aim of this study is to explain the mechanisms by which these actors gain their alleged role in government decision-making. Hence, it analyses advisory arrangements that are proactively involved in executive decision-making and may compete with the permanent bureaucracy by offering policy advice to political executives. The study argues that these advisory arrangements influence government policy-making by "institutional politics", i.e. by shaping the institutional underpinnings to govern or rather the "rules of the executive game" in order to strengthen their own position or that of their clients. The theoretical argument of this study follows the neo-institutionalist turn in organization theory and defines institutional politics as gradual institutionalization processes between institutions and organizational actors. It applies a broader definition of institutions as sets of regulative, normative and cognitive pillars. Following the "power-distributional approach" such gradual institutionalization processes are influenced by structure-oriented characteristics, i.e. the nature of the objects of institutional politics, in particular the freedom of interpretation in their application, as well as the distinct constraints of the institutional context. In addition, institutional politics are influenced by agency-oriented characteristics, i.e. the ambitions of actors to act as "would-be change agents". These two explanatory dimensions result in four ideal-typical mechanisms of institutional politics: layering, displacement, drift, and conversion, which correspond to four ideal-types of would-be change agents. The study examines the ambitions of advisory arrangements in institutional politics in an exploratory manner, the relevance of the institutional context is analyzed via expectation hypotheses on the effects of four institutional context features that are regarded as relevant in the scholarly debate: (1) the party composition of governments, (2) the structuring principles in cabinet, (3) the administrative tradition, and (4) the formal politicization of the ministerial bureaucracy. The study follows a "most similar systems design" and conducts qualitative case studies on the role of advisory arrangements at the center of German and British governments, i.e. the Prime Minister’s Office and the Ministry of Finance, for a longer period (1969/1970-2005). Three time periods are scrutinized per country; the British case studies examine the role of advisory arrangements at the Cabinet Office, the Prime Minister's Office, and the Ministry of Finance under Prime Ministers Heath (1970-74), Thatcher (1979-87) and Blair (1997-2005). The German case studies study the role of advisory arrangements at the Federal Chancellery and the Federal Ministry of Finance during the Brandt government (1969-74), the Kohl government (1982-1987) and the Schröder government (1998-2005). For the empirical analysis, the results of a document analysis and the findings of 75 semi-structured expert interviews have been triangulated. The comparative analysis reveals different patterns of institutional politics. The German advisory arrangements engaged initially in displacement but turned soon towards layering and drift, i.e. after an initial displacement of the pre-existing institutional underpinnings to govern they laid increasingly new elements onto existing ones and took the non-deliberative decision to neglect the adaption of existing rules of the executive game towards changing environmental demands. The British advisory arrangements were mostly involved in displacement and conversion, despite occasional layering, i.e. they displaced the pre-existing institutional underpinnings to govern with new rules of the executive game and transformed and realigned them, sometimes also layering new elements onto pre-existing ones. The structure- and agency-oriented characteristics explain these patterns of institutional politics. First, the study shows that the institutional context limits the institutional politics in Germany and facilitates the institutional politics in the UK. Second, the freedom of interpreting the application of institutional targets is relevant and could be observed via the different ambitions of advisory arrangements across countries and over time, confirming, third, that the interests of such would-be change agents are likewise important to understand the patterns of institutional politics. The study concludes that the role of advisory arrangements in government policy-making rests not only upon their policy-related, party-political or media-advisory role for political executives, but especially upon their activities in institutional politics, resulting in distinct institutional constraints on all actors in government policy-making – including their own role in these processes. KW - Politikberatung KW - Ministerialverwaltung KW - Regierungszentrale KW - Organisationstheorie KW - Fallstudie KW - Policy advice KW - Ministerial bureaucracy KW - Prime Minister's Office KW - Organization theory KW - Case study Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61873 ER - TY - THES A1 - Fernandes Guimarães, Ana Helena T1 - How does adhesion influence the small aggregates in Saturn's rings T1 - Wie Adhäsion die Bildung von Aggregaten in den Saturnringen beeinflusst N2 - Particles in Saturn’s main rings range in size from dust to even kilometer-sized objects. Their size distribution is thought to be a result of competing accretion and fragmentation processes. While growth is naturally limited in tidal environments, frequent collisions among these objects may contribute to both accretion and fragmentation. As ring particles are primarily made of water ice attractive surface forces like adhesion could significantly influence these processes, finally determining the resulting size distribution. Here, we derive analytic expressions for the specific self-energy Q and related specific break-up energy Q⋆ of aggregates. These expressions can be used for any aggregate type composed of monomeric constituents. We compare these expressions to numerical experiments where we create aggregates of various types including: regular packings like the face-centered cubic (fcc), Ballistic Particle Cluster Aggregates (BPCA), and modified BPCAs including e.g. different constituent size distributions. We show that accounting for attractive surface forces such as adhesion a simple approach is able to: a) generally account for the size dependence of the specific break-up energy for fragmentation to occur reported in the literature, namely the division into “strength” and “gravity” regimes, and b) estimate the maximum aggregate size in a collisional ensemble to be on the order of a few meters, consistent with the maximum aggregate size observed in Saturn’s rings of about 10m. N2 - Die Ringe des Saturns bestehen aus Myriaden von Teilchen, deren Größe von Mikrometern (Staub) bis hin zu Hunderten von Metern reicht. Die Ringteilchen bestehen hauptsächlich aus Eis, wobei attraktive Oberflächenkräfte wie Adhäsion und Gravitation zur Bildung von Aggregaten führen kann. Das Wachstum der Aggregate wird durch die Wirkung der Gezeitenkräfte und auch durch Kollisionen der Ringteilchen untereinander auf natürliche Weise begrenzt. Die Kollisionen der Ringteilchen führen zu Akkretion und Fragmentation, welche die resultierende Größenverteilung der Agglomerate schließlich bestimmen. In dieser Arbeit wurden Ausdrücke für die spezifische Eigenenergie Q der Aggregate und der in Relation stehenden spezifischen Fragmentationsenergie Q* analytisch hergeleitet. Diese Ausdrücke können für alle aus monomeren Teilchen bestehenden Agglomerate verwendet werden. Die analytisch gewonnenen Ergebnisse wurden mit numerischen Experimenten verglichen. In den numerischen Experimenten wurden verschiedene Agglomerattypen erzeugt: (i) Agglomerate mit kubischem Kristallsystem, (ii) ballistische Teilchenaggregate und (iii) modifiziert ballistische Teilchenaggregate. Für die ballistischen Teilchenaggregate wurden verschiedene Größenverteilungen der Konstituenten verwendet. Als Ergebnis lassen sich die erzeugten Aggregate gemäß ihrer Größe in zwei Gruppen einteilen. Während die kleinen Aggregate hauptsächlich durch die Kontaktkräfte (Adhäsion) zusammengehalten werden, dominiert bei großen Aggregaten (größer als einige Meter) die Gravitationskraft. D.h. wächst aus kleinen Teilchen ein Aggregat, so wird dieses zunächst durch die haftenden Kontakte zwischen den Teilchen zusammengehalten. Wächst das Agglomerat über eine bestimmte Größe, so ist es die Eigengravitation, die den Körper zusammenhält. Damit kann die maximale Gesamtgröße der Aggregate im Kollisionsensemble abgeschätzt werden. Der so bestimmte Wert von einigen Metern stimmt mit der aus Beobachtungen berechneten maximalen Größe der Ringteilchen von rund 10 Metern gut überein. KW - Saturn KW - Ringe KW - Agglomerate KW - Adhäsion KW - Saturn KW - Ring KW - Aggregates KW - Adhesion Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61846 ER - TY - THES A1 - Brückner, Michael T1 - Prediction games : machine learning in the presence of an adversary T1 - Prädiktionsspiele : maschinelles Lernen in Anwesenheit eines Gegners N2 - In many applications one is faced with the problem of inferring some functional relation between input and output variables from given data. Consider, for instance, the task of email spam filtering where one seeks to find a model which automatically assigns new, previously unseen emails to class spam or non-spam. Building such a predictive model based on observed training inputs (e.g., emails) with corresponding outputs (e.g., spam labels) is a major goal of machine learning. Many learning methods assume that these training data are governed by the same distribution as the test data which the predictive model will be exposed to at application time. That assumption is violated when the test data are generated in response to the presence of a predictive model. This becomes apparent, for instance, in the above example of email spam filtering. Here, email service providers employ spam filters and spam senders engineer campaign templates such as to achieve a high rate of successful deliveries despite any filters. Most of the existing work casts such situations as learning robust models which are unsusceptible against small changes of the data generation process. The models are constructed under the worst-case assumption that these changes are performed such to produce the highest possible adverse effect on the performance of the predictive model. However, this approach is not capable to realistically model the true dependency between the model-building process and the process of generating future data. We therefore establish the concept of prediction games: We model the interaction between a learner, who builds the predictive model, and a data generator, who controls the process of data generation, as an one-shot game. The game-theoretic framework enables us to explicitly model the players' interests, their possible actions, their level of knowledge about each other, and the order at which they decide for an action. We model the players' interests as minimizing their own cost function which both depend on both players' actions. The learner's action is to choose the model parameters and the data generator's action is to perturbate the training data which reflects the modification of the data generation process with respect to the past data. We extensively study three instances of prediction games which differ regarding the order in which the players decide for their action. We first assume that both player choose their actions simultaneously, that is, without the knowledge of their opponent's decision. We identify conditions under which this Nash prediction game has a meaningful solution, that is, a unique Nash equilibrium, and derive algorithms that find the equilibrial prediction model. As a second case, we consider a data generator who is potentially fully informed about the move of the learner. This setting establishes a Stackelberg competition. We derive a relaxed optimization criterion to determine the solution of this game and show that this Stackelberg prediction game generalizes existing prediction models. Finally, we study the setting where the learner observes the data generator's action, that is, the (unlabeled) test data, before building the predictive model. As the test data and the training data may be governed by differing probability distributions, this scenario reduces to learning under covariate shift. We derive a new integrated as well as a two-stage method to account for this data set shift. In case studies on email spam filtering we empirically explore properties of all derived models as well as several existing baseline methods. We show that spam filters resulting from the Nash prediction game as well as the Stackelberg prediction game in the majority of cases outperform other existing baseline methods. N2 - Eine der Aufgabenstellungen des Maschinellen Lernens ist die Konstruktion von Vorhersagemodellen basierend auf gegebenen Trainingsdaten. Ein solches Modell beschreibt den Zusammenhang zwischen einem Eingabedatum, wie beispielsweise einer E-Mail, und einer Zielgröße; zum Beispiel, ob die E-Mail durch den Empfänger als erwünscht oder unerwünscht empfunden wird. Dabei ist entscheidend, dass ein gelerntes Vorhersagemodell auch die Zielgrößen zuvor unbeobachteter Testdaten korrekt vorhersagt. Die Mehrzahl existierender Lernverfahren wurde unter der Annahme entwickelt, dass Trainings- und Testdaten derselben Wahrscheinlichkeitsverteilung unterliegen. Insbesondere in Fällen in welchen zukünftige Daten von der Wahl des Vorhersagemodells abhängen, ist diese Annahme jedoch verletzt. Ein Beispiel hierfür ist das automatische Filtern von Spam-E-Mails durch E-Mail-Anbieter. Diese konstruieren Spam-Filter basierend auf zuvor empfangenen E-Mails. Die Spam-Sender verändern daraufhin den Inhalt und die Gestaltung der zukünftigen Spam-E-Mails mit dem Ziel, dass diese durch die Filter möglichst nicht erkannt werden. Bisherige Arbeiten zu diesem Thema beschränken sich auf das Lernen robuster Vorhersagemodelle welche unempfindlich gegenüber geringen Veränderungen des datengenerierenden Prozesses sind. Die Modelle werden dabei unter der Worst-Case-Annahme konstruiert, dass diese Veränderungen einen maximal negativen Effekt auf die Vorhersagequalität des Modells haben. Diese Modellierung beschreibt die tatsächliche Wechselwirkung zwischen der Modellbildung und der Generierung zukünftiger Daten nur ungenügend. Aus diesem Grund führen wir in dieser Arbeit das Konzept der Prädiktionsspiele ein. Die Modellbildung wird dabei als mathematisches Spiel zwischen einer lernenden und einer datengenerierenden Instanz beschrieben. Die spieltheoretische Modellierung ermöglicht es uns, die Interaktion der beiden Parteien exakt zu beschreiben. Dies umfasst die jeweils verfolgten Ziele, ihre Handlungsmöglichkeiten, ihr Wissen übereinander und die zeitliche Reihenfolge, in der sie agieren. Insbesondere die Reihenfolge der Spielzüge hat einen entscheidenden Einfluss auf die spieltheoretisch optimale Lösung. Wir betrachten zunächst den Fall gleichzeitig agierender Spieler, in welchem sowohl der Lerner als auch der Datengenerierer keine Kenntnis über die Aktion des jeweils anderen Spielers haben. Wir leiten hinreichende Bedingungen her, unter welchen dieses Spiel eine Lösung in Form eines eindeutigen Nash-Gleichgewichts besitzt. Im Anschluss diskutieren wir zwei verschiedene Verfahren zur effizienten Berechnung dieses Gleichgewichts. Als zweites betrachten wir den Fall eines Stackelberg-Duopols. In diesem Prädiktionsspiel wählt der Lerner zunächst das Vorhersagemodell, woraufhin der Datengenerierer in voller Kenntnis des Modells reagiert. Wir leiten ein relaxiertes Optimierungsproblem zur Bestimmung des Stackelberg-Gleichgewichts her und stellen ein mögliches Lösungsverfahren vor. Darüber hinaus diskutieren wir, inwieweit das Stackelberg-Modell bestehende robuste Lernverfahren verallgemeinert. Abschließend untersuchen wir einen Lerner, der auf die Aktion des Datengenerierers, d.h. der Wahl der Testdaten, reagiert. In diesem Fall sind die Testdaten dem Lerner zum Zeitpunkt der Modellbildung bekannt und können in den Lernprozess einfließen. Allerdings unterliegen die Trainings- und Testdaten nicht notwendigerweise der gleichen Verteilung. Wir leiten daher ein neues integriertes sowie ein zweistufiges Lernverfahren her, welche diese Verteilungsverschiebung bei der Modellbildung berücksichtigen. In mehreren Fallstudien zur Klassifikation von Spam-E-Mails untersuchen wir alle hergeleiteten, sowie existierende Verfahren empirisch. Wir zeigen, dass die hergeleiteten spieltheoretisch-motivierten Lernverfahren in Summe signifikant bessere Spam-Filter erzeugen als alle betrachteten Referenzverfahren. KW - Prädiktionsspiel KW - Adversarial Learning KW - Angewandte Spieltheorie KW - Maschinelles Lernen KW - Spam-Filter KW - Prediction Game KW - Adversarial Learning KW - Applied Game Theory KW - Machine Learning KW - Spam Filtering Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60375 SN - 978-3-86956-203-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bringmann, Martin T1 - Identification of novel components that connect cellulose synthases to the cytoskeleton T1 - Identifikation neuer Proteine als Bindeglieder zwischen den Zellulosesynthasen und dem Zytoskelett N2 - Cellulose is the most abundant biopolymer on earth and the main load-bearing structure in plant cell walls. Cellulose microfibrils are laid down in a tight parallel array, surrounding plant cells like a corset. Orientation of microfibrils determines the direction of growth by directing turgor pressure to points of expansion (Somerville et al., 2004). Hence, cellulose deficient mutants usually show cell and organ swelling due to disturbed anisotropic cell expansion (reviewed in Endler and Persson, 2011). How do cellulose microfibrils gain their parallel orientation? First experiments in the 1960s suggested, that cortical microtubules aid the cellulose synthases on their way around the cell (Green, 1962; Ledbetter and Porter, 1963). This was proofed in 2006 through life cell imaging (Paredez et al., 2006). However, how this guidance was facilitated, remained unknown. Through a combinatory approach, including forward and reverse genetics together with advanced co-expression analysis, we identified pom2 as a cellulose deficient mutant. Map- based cloning revealed that the gene locus of POM2 corresponded to CELLULOSE SYNTHASE INTERACTING 1 (CSI1). Intriguingly, we previously found the CSI1 protein to interact with the putative cytosolic part of the primary cellulose synthases in a yeast-two-hybrid screen (Gu et al., 2010). Exhaustive cell biological analysis of the POM2/CSI1 protein allowed to determine its cellular function. Using spinning disc confocal microscopy, we could show that in the absence of POM2/CSI1, cellulose synthase complexes lose their microtubule-dependent trajectories in the plasma membrane. The loss of POM2/CSI1, however does not influence microtubule- dependent delivery of cellulose synthases (Bringmann et al., 2012). Consequently, POM2/CSI1 acts as a bridging protein between active cellulose synthases and cortical microtubules. This thesis summarizes three publications of the author, regarding the identification of proteins that connect cellulose synthases to the cytoskeleton. This involves the development of bioinformatics tools allowing candidate gene prediction through co-expression studies (Mutwil et al., 2009), identification of candidate genes through interaction studies (Gu et al., 2010), and determination of the cellular function of the candidate gene (Bringmann et al., 2012). N2 - Zellulose ist das abundanteste Biopolymer der Erde und verleiht pflanzlichen Zellwänden ihre enorme Tragkraft. Mit der Reißfestigkeit von Stahl umwickeln Zellulosefibrillen pflanzliche Zellwände wie ein Korsett. Die Orientierung der Zellulosefibrillen bestimmt zugleich die Wachstumsrichtung, indem sie den Zellinnendruck (Turgor) in die entsprechende Ausdehnungsrichtung dirigiert (Somerville et al.,2004).Folglich zeigen Mutanten mit gestörter Zellulosesynthese oft geschwollene Organe und Zellen, die sich nicht mehr gerichtet ausdehnen können (zusammengefasst von Endler und Persson,2011). Wie aber erhalten die Zellulosefibrillen ihre parallele Orientierung? Erste Experimente aus den1960ern führten zur Vermutung, kortikale Mikrotubuli leiten die Zellulosesynthasen auf ringförmigen Bahnen um die Zellen herum (Green, 1962; Ledbetter and Porter, 1963). Diese Theorie wurde 2006 mit Hilfe moderner mikroskopischer Methoden bestätigt (Paredez et al., 2006). Wie jedoch dieser Leitmechanismus funktioniert, blieb bisher unentdeckt. Durch die Kombination verschiedener genetischer und bioinformatischer Methoden, konnten wir pom2 als Zellulose defiziente Mutante identifizieren. Die Ermittlung des Genlocus durch Map-based cloning zeigte, dass es sich bei POM2 um CELLULOSE SYNTHASE INTERACTING 1 (CSI1) handelt, ein Gen, dessen korrespondierendes Protein, wie vorher von uns gezeigt, mit dem zytosolischen Teil der primären Zellulosesynthasen interagiert (Gu et al., 2010). Durch ausführliche zellbiologische Charakterisierung von POM2/CSI1 konnten wir seine zelluläre Funktion entschlüsseln. Mit Hilfe konfokaler Spinning- Disc-Mikroskopie konnten wir zeigen, dass in Abwesenheit von POM2/CSI1, Zellulosesynthasen von den Mikrotubuli- Bahnen abweichen. Der ebenfalls von den Mikrotubuli abhängige Transport der Zellulosesynthasen zur Zellmembran hingegen, war nicht beeinflusst (Bringmann et al., 2012). Demzufolge ist POM2/CSI1 das gesuchte Bindeglied zwischen aktiven Zellulosesynthasen und Mikrotubuli. In dieser Dissertationsschrift werden drei Publikationen des Autors zusammengefasst, die wa ̈hrend der Arbeit an der Dissertiation entstanden sind. Sie beinhalten die Entwicklung bioinformatischer Methoden zur Ko- Expressionsanalyse, um Kandidatengene zu ermitteln (Mutwil et al., 2009), die Identifikaton des Kandidatengens POM2/CSI1 in einer Interaktionsstudie (Gu et al., 2010), sowie die Bestimmung der zellula ̈ren Funktion des korrespondieren- den Proteins POM2/CSI1 (Bringmann et al., 2012). KW - Zellwand KW - Zytoskelett KW - Mikrotubuli KW - CESA Komplex KW - Polysaccharide KW - cell wall KW - cytoskeleton KW - microtubules KW - cesa complex KW - polysaccharides Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61478 ER - TY - THES A1 - Jeromenok, Jekaterina T1 - Polymers from the natural product betulin : a microstructural investigation T1 - Polymere aus dem Naturstoff Betulin und Untersuchungen ihrer Mikrostruktur N2 - Porous materials (e.g. zeolites, activated carbon, etc.) have found various applications in industry, such as the use as sorbents, catalyst supports and membranes for separation processes. Recently, much attention has been focused on synthesizing porous polymer materials. A vast amount of tailor-made polymeric systems with tunable properties has been investigated. Very often, however, the starting substances for these polymers are of petrochemical origin, and the processes are all in all not sustainable. Moreover, the new polymers have challenged existing characterizing methodologies. These have to be further developed to address the upcoming demands of the novel materials. Some standard techniques for the analysis of porous substances like nitrogen sorption at 77 K do not seem to be sufficient to answer all arising questions about the microstructure of such materials. In this thesis, microporous polymers from an abundant natural resource, betulin, will be presented. Betulin is a large-scale byproduct of the wood industry, and its content in birch bark can reach 30 wt.%. Based on its rigid structure, polymer networks with intrinsic microporosity could be synthesized and characterized. Apart from standard nitrogen and carbon dioxide sorption at 77 K and 273 K, respectively, gas sorption has been examined not only with various gases (hydrogen and argon) but also at various temperatures. Additional techniques such as X-ray scattering and xenon NMR have been utilized to enable insight into the microporous structure of the material. Starting from insoluble polymer networks with promising gas selectivities, soluble polyesters have been synthesized and processed to a cast film. Such materials are feasible for membrane applications in gas separation. Betulin as a starting compound for polyester synthesis has aided to prepare, and for the first time to thoroughly analyse a microporous polyester with respect to its pores and microstructure. It was established that nitrogen adsorption at 87 K can be a better method to solve the microstructure of the material. In addition to that, other betulin-based polymers such as polyurethanes and polyethylene glycol bioconjugates are presented. Altogether, it has been shown that as an abundant natural resource betulin is a suitable and cheap starting compound for some polymers with various potential applications. N2 - Das Bestreben, ölbasierte Produkte durch nachwachsende Rohstoffe zu ersetzen, hat dazu geführt, dass in immer größerer Zahl günstige, reichlich vorhandene Naturstoffe als Ausgangsstoffe für chemische Synthesen untersucht werden. In dieser Arbeit werden Polymere auf Basis von Betulin, einem aus Birkenrinde extrahierten Naturstoff, vorgestellt. Betulin ist zu 30 Gewichtsprozent in Birkenrinde enthalten. Da Betulin ein Nebenprodukt der Holzindustrie ist, ist es kostengünstig und sein Einsatz als Ausgangsstoff äußerst lukrativ. Die ersten Berichte über Betulin-basierte Polymere sind in den 1980er Jahren in Russland und Finnland erschienen, in den Ländern mit großen natürlichen Vorkommen an Birken. Betulin wurde in dieser Arbeit verwendet, um sogenannte mikroporöse Polymere herzustellen. Dies sind Stoffe mit Poren von molekularer Dimension. Mikroporöse Materialien sind wegen ihrer potentiellen Anwendung als Katalysatorträger und Gasseparationsmembranen hochinteressant. Die Klasse mikroporöser Polymere wurde durch die Synthese von unlöslichen Betulin-basierten Polyesternetzwerken erweitert. Außerdem gelang es, lösliche Polyester in Form dünner Filme herzustellen. Diese zeigten vielversprechende Ergebnisse in der Trennung von Stickstoff und Kohlendioxid und weisen somit Potential für die Nutzung als Membran auf. Dies könnte z. B. für Kohlendioxid-Reduzierung in Postcombustion-Verfahren interessant sein. Überdies wurde gezeigt, dass Stickstoffadsorption bei 77 K nicht ohne weiteres als Standardmethode für die Analyse von mikroporösen Materialien geeignet ist und dass die mikroporösen Materialien ferner durch Stickstoffadsorption bei 87 K und andere Gassorptionsmethoden bei verschiedenen Temperaturen zu charakterisieren sind. Diese Arbeit trägt zum besseren Verständnis mikroporöser Polymere bei. KW - Betulin KW - mikroporöse Polymere KW - Polyeste r KW - Gaspermeation KW - Naturstoff KW - Betulin KW - gas permeation KW - microporous polymers KW - polyesters KW - renewable resources Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61380 ER - TY - THES A1 - Latnikova, Alexandra T1 - Polymeric capsules for self-healing anticorrosion coatings T1 - Polymerische Kapseln für selbstheilende Korrosionsschutzbeschichtungen N2 - The present work is devoted to establishing of a new generation of self-healing anti-corrosion coatings for protection of metals. The concept of self-healing anticorrosion coatings is based on the combination of the passive part, represented by the matrix of conventional coating, and the active part, represented by micron-sized capsules loaded with corrosion inhibitor. Polymers were chosen as the class of compounds most suitable for the capsule preparation. The morphology of capsules made of crosslinked polymers, however, was found to be dependent on the nature of the encapsulated liquid. Therefore, a systematic analysis of the morphology of capsules consisting of a crosslinked polymer and a solvent was performed. Three classes of polymers such as polyurethane, polyurea and polyamide were chosen. Capsules made of these polymers and eight solvents of different polarity were synthesized via interfacial polymerization. It was shown that the morphology of the resulting capsules is specific for every polymer-solvent pair. Formation of capsules with three general types of morphology, such as core-shell, compact and multicompartment, was demonstrated by means of Scanning Electron Microscopy. Compact morphology was assumed to be a result of the specific polymer-solvent interactions and be analogues to the process of swelling. In order to verify the hypothesis, pure polyurethane, polyurea and polyamide were synthesized; their swelling behavior in the solvents used as the encapsulated material was investigated. It was shown that the swelling behavior of the polymers in most cases correlates with the capsules morphology. Different morphologies (compact, core-shell and multicompartment) were therefore attributed to the specific polymer-solvent interactions and discussed in terms of “good” and “poor” solvent. Capsules with core-shell morphology are formed when the encapsulated liquid is a “poor” solvent for the chosen polymer while compact morphologies are formed when the solvent is “good”. Multicompartment morphology is explained by the formation of infinite networks or gelation of crosslinked polymers. If gelation occurs after the phase separation in the system is achieved, core-shell morphology is present. If gelation of the polymer occurs far before crosslinking is accomplished, further condensation of the polymer due to the crosslinking may lead to the formation of porous or multicompartment morphologies. It was concluded that in general, the morphology of capsules consisting of certain polymer-solvent pairs can be predicted on the basis of polymer-solvent behavior. In some cases, the swelling behavior and morphology may not match. The reasons for that are discussed in detail in the thesis. The discussed approach is only capable of predicting capsule morphology for certain polymer-solvent pairs. In practice, the design of the capsules assumes the trial of a great number of polymer-solvent combinations; more complex systems consisting of three, four or even more components are often used. Evaluation of the swelling behavior of each component pair of such systems becomes unreasonable. Therefore, exploitation of the solubility parameter approach was found to be more useful. The latter allows consideration of the properties of each single component instead of the pair of components. In such a manner, the Hansen Solubility Parameter (HSP) approach was used for further analysis. Solubility spheres were constructed for polyurethane, polyurea and polyamide. For this a three-dimensional graph is plotted with dispersion, polar and hydrogen bonding components of solubility parameter, obtained from literature, as the orthogonal axes. The HSP of the solvents are used as the coordinates for the points on the HSP graph. Then a sphere with a certain radius is located on a graph, and the “good” solvents would be located inside the sphere, while the “poor” ones are located outside. Both the location of the sphere center and the sphere radius should be fitted according to the information on polymer swelling behavior in a number of solvents. According to the existing correlation between the capsule morphology and swelling behavior of polymers, the solvents located inside the solubility sphere of a polymer give capsules with compact morphologies. The solvents located outside the solubility sphere of the solvent give either core-shell or multicompartment capsules in combination with the chosen polymer. Once the solubility sphere of a polymer is found, the solubility/swelling behavior is approximated to all possible substances. HSP theory allows therefore prediction of polymer solubility/swelling behavior and consequently the capsule morphology for any given substance with known HSP parameters on the basis of limited data. The latter makes the theory so attractive for application in chemistry and technology, since the choice of the system components is usually performed on the basis of a large number of different parameters that should mutually match. Even slight change of the technology sometimes leads to the necessity to find the analogue of this or that solvent in a sense of solvency but carrying different chemistry. Usage of the HSP approach in this case is indispensable. In the second part of the work examples of the HSP application for the fabrication of capsules with on-demand-morphology are presented. Capsules with compact or core-shell morphology containing corrosion inhibitors were synthesized. Thus, alkoxysilanes possessing long hydrophobic tail, combining passivating and water-repelling properties, were encapsulated in polyurethane shell. The mechanism of action of the active material required core-shell morphology of the capsules. The new hybrid corrosion inhibitor, cerium diethylhexyl phosphate, was encapsulated in polyamide shells in order to facilitate the dispersion of the substance and improve its adhesion to the coating matrix. The encapsulation of commercially available antifouling agents in polyurethane shells was carried out in order to control its release behavior and colloidal stability. Capsules with compact morphology made of polyurea containing the liquid corrosion inhibitor 2-methyl benzothiazole were synthesized in order to improve the colloidal stability of the substance. Capsules with compact morphology allow slower release of the liquid encapsulated material compared to the core-shell ones. If the “in-situ” encapsulation is not possible due to the reaction of the oil-soluble monomer with the encapsulated material, a solution was proposed: loading of the capsules should be performed after monomer deactivation due to the accomplishment of the polymerization reaction. Capsules of desired morphologies should be preformed followed by the loading step. In this way, compact polyurea capsules containing the highly effective but chemically active corrosion inhibitors 8-hydroxyquinoline and benzotriazole were fabricated. All the resulting capsules were successfully introduced into model coatings. The efficiency of the resulting “smart” self-healing anticorrosion coatings on steel and aluminium alloy of the AA-2024 series was evaluated using characterization techniques such as Scanning Vibrating Electron Spectroscopy, Electrochemical Impedance Spectroscopy and salt-spray chamber tests. N2 - In Anlehnung an den Selbstheilungsmechanismus der menschlichen Haut entwickeln wir ein innovatives Verfahren zur Funktionalisierung von Korrosionsschutzbeschichtungen, um auch diese in die Lage zu versetzen Beschädigungen selbstständig „auszuheilen“. Dazu werden winzige Mikro- und Nanobehälter mit aktiven Substanzen (z. B. Korrosionshemmstoffen, Versiegelungsmitteln, Bioziden etc.) befüllt und anschließend in eine Korrosionsschutzbeschichtung eingebettet. Kommt es nun im Zeitablauf zu korrosionsauslösenden Beschädigungen der Schutzbeschichtung (z. B. durch Kratzer oder Risse) werden an der Defektstelle die eingebetteten Behälter zerstört und aktiv wirkende Gegensubstanzen freigesetzt. Dadurch wird die verletzte Stelle sofort wieder verschlossen und die Korrosionsgefahr eliminiert. Der entscheidende Vorteil derart funktionalisierter Schutzbeschichtungen ist ihre aktive Rückkopplung mit dem Korrosionsauslöser: Die aktive Schutzsubstanz wird nur an der Defektstelle und nur in der zur Korrosionsvermeidung erforderlichen Menge freigegeben. Somit werden eine länger anhaltende Wirkdauer sowie eine deutlich höhere Nachhaltigkeit der Beschichtungen ermöglicht. Dieses „intelligente Verhalten“ der neuen aktiven Korrosionsschutzbeschichtungen ist nur dank ihrer innovativen Mikrostruktur möglich. Die winzigen Mikro- und Nanobehälter beinhalten nicht nur aktive Substanzen in ihrem Inneren sondern besitzen auch eine intelligent konstruierte Hüllenstruktur, deren Durchlässigkeit sich je nach Art des Korrosionsauslösers ändert. Wird die eingekapselte aktive Substanz freigesetzt, fängt diese sofort an gegen die korrosionsverursachenden Einflüsse zu wirken. Ist die Gefahr beseitigt verringert sich die Durchlässigkeit der Behälterhülle wieder. Diese bedingte Reversibilität zwischen geschlossenem und geöffnetem Zustand des Behälters sorgt für einen sehr sparsamen Verbrauch der aktiven Substanz und für die stark verbesserte Schutzwirkung darauf basierender Antikorrosionsbeschichtungen. Diese Arbeit befasst sich mit dem Aufbau polymerer Kern-Schale-Mikrokapseln, die entsprechende Korrosionsinhibitoren und Biocide enthalten. Der Morphologie wird für zahlreiche Lösungsmittel und Polymere mit Hilfe der Hansen-Löslichkeitsparameter in guter Übereinstimmung mit elektronenmikroskopischen Experimenten beschrieben. Die Wirkungsweise in technischen Beschichtungen wird quantifiziert anhand von elektrochemischer Impedanzspektroskopie, Rastervibrationssondenmessungen und industrienahen Testverfahren. KW - Korrosion KW - Selbstheilende Beschichtungen KW - Einkapselung KW - Morphologie von Kapseln KW - corrosion KW - self-healing coatings KW - encapsulation KW - capsule morphology Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60432 ER - TY - THES A1 - Hinz, Justyna T1 - Factors modifying the aggregation of atrophin-1 acting in cis and in trans T1 - Faktoren welche die Aggregation der Atrophin-1 in cis und in trans beeinflussen N2 - Ten polyQ (polyglutamine) diseases constitute a group of hereditary, neurodegenerative, lethal disorders, characterized by neuronal loss and motor and cognitive impairments. The only common molecular feature of polyQ disease-associated proteins is the homopolymeric polyglutamine repeat. The pathological expansion of polyQ tract invariably leads to protein misfolding and aggregation, resulting in formation of the fibrillar intraneuronal deposits (aggregates) of the disease protein. The polyQ-related cellular toxicity is currently attributed to early, small, soluble aggregate species (oligomers), whereas end-stage, fibrillar, insoluble aggregates are considered to be benign. In the complex cellular environment aggregation and toxicity of mutant polyQ proteins can be affected by both the sequences of the corresponding disease protein (factors acting in cis) and the cellular environment (factors acting in trans). Additionally, the nucleus has been suggested to be the primary site of toxicity in the polyQ-based neurodegeneration. In this study, the dynamics and structure of nuclear and cytoplasmic inclusions were examined to determine the intrinsic and extrinsic factors influencing the cellular aggregation of atrophin-1, a protein implicated in the pathology of dentatorubral-pallidoluysian atrophy (DRPLA), a polyQ-based disease with complex clinical features. Dynamic imaging, combined with biochemical and biophysical approaches revealed a large heterogeneity in the dynamics of atrophin-1 within the nuclear inclusions compared with the compact and immobile cytoplasmic aggregates. At least two types of inclusions of polyQ-expanded atrophin-1 with different mobility of the molecular species and ability to exchange with the surrounding monomer pool coexist in the nucleus of the model cell system, neuroblastoma N2a cells. Furthermore, our novel cross-seeding approach which allows for monitoring of the architecture of the aggregate core directly in the cell revealed an evolution of the aggregate core of the polyQ-expanded ATN1 from one composed of the sequences flanking the polyQ domain at early aggregation phases to one dominated by the polyQ stretch in the later aggregation phase. Intriguingly, these changes in the aggregate core architecture of nuclear and cytoplasmic inclusions mirrored the changes in the protein dynamics and physico-chemical properties of the aggregates in the aggregation time course. 2D-gel analyses followed by MALDI-TOF MS (matrix-assisted laser desorption/ionization time of flight mass spectrometry) were used to detect alterations in the interaction partners of the pathological ATN1 variant compared to the non-pathological ATN1. Based on these results, we propose that the observed complexity in the dynamics of the nuclear inclusions provides a molecular explanation for the enhanced cellular toxicity of the nuclear aggregates in polyQ-based neurodegeneration. N2 - Zehn Polyglutamin-basierte (polyQ) Erkrankungen bilden eine Gruppe von erblichen, neurogenerativen, letalen Krankheiten, die durch neuronalen Zellverlust und motorischen und kognitiven Störungen charakterisiert sind. Die mit polyQ Erkrankungen-assoziierten Proteine enthalten eine repetitive Abfolge der Aminosäure Glutamin (den polyQ-Bereich, der die einzige gemeinsame Sequenz aller polyQ Proteine ist). Durch die pathologische Verlängerung des PolyQ-Bereiches bekommen die polyQ Proteine eine Neigung zu aggregieren, und bilden damit unlösliche, fibrilläre Ablagerungen in Neuronen. Es wird vermutet, dass die sich anfangs bildenden kleinen löslichen Ablagerungsvorstufen (Oligomere) toxisch, und die später gebildeten, unlöslichen fibrillären Aggregate jedoch harmlos sind. Im zellulären Milieu werden Aggregations-Prozess und Toxizität durch die polyQ-flankierenden (benachbarten) Sequenzen des jeweiligen Proteins (in cis agierende Faktoren) und unterschiedliche zelluläre Proteine (in trans agierende Faktoren) beeinflusst. Außerdem kann die nukleare Lokalisation der polyQ Spezies mit verlängertem PolyQ-Bereich ihren toxischen Effekt erhöhen. Die Verlängerung des polyQ-Bereiches im Protein Atrophin-1 (ATN1) über 49 Glutamine hinaus, verursacht Dentatorubro-Pallidoluysische Atrophie (DRPLA), eine progressive Erkrankung, die sich durch Muskelzuckungen, Epilepsie, Ataxie und Demenz äußern kann. In dieser Arbeit wurden die dynamischen Eigenschaften und die Struktur der nuklearen und zytoplasmatischen Aggregate systematisch untersucht, um die Faktoren, die das Aggregations-Verhältnis der Atrophin-1 in cis und in trans beeinflussen zu erkennen. Mittels des mit biochemischen und biophysikalischen Analysen kombinierten Dynamic Imaging, konnte gezeigt werden, dass Aggregate der mutierten ATN1 in vivo, im Säugetier-Zellen Model (Neuroblastoma N2a Zellen), sich von den frühen, löslichen zu später gebildeten unlöslichen Spezies entwickeln. Die Resultate der im Rahmen dieser Arbeit entwickelten Cross-Seeding Methode zeigen, dass das Aggregatcore der früheren Aggregate von den polyQ-Bereich flankierenden Sequenzen kontrolliert wurde, während die Transformation zu unlöslichen Aggregaten von dem expandierten polyQ-Bereich dominiert ist. Außerdem, wie die 2D-Gelelectrophorese und die MALDI-TOF MS (matrix-assisted laser desorption/ionization time-of-flight mass spectrometry) Analysen beweisen, beeinflusst die Länge des PolyQ-Bereiches die Interaktionen mit zellulären Proteinen. Wir haben auch festgestellt, dass das in nuklearen Aggregaten abgelagerte polyQ-expandierte ATN1 im Vergleich zu den zytoplasmatischen Ablagerungen eine erhöhte Mobilität aufwies. Mindestens zwei Aggregat-Typen mit unterschiedlichen Mobilitäten von mutierten ATN1 koexistieren im Zellkern der N2a Zellen, während im Gegensatz dazu das Protein in den kompakten zytoplasmatischen Aggregaten ausnahmslos immobil erscheint. Dies stellt eine molekulare Erklärung der erhöhten Toxizität der nuklearen ATN1-Aggregate dar. KW - polyQ KW - Atrophin-1 KW - Proteinmissfaltung KW - Proteinaggregation KW - polyQ KW - atrophin-1 KW - misfolding KW - aggregation Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60385 ER - TY - THES A1 - Jagdhuber, Thomas T1 - Soil parameter retrieval under vegetation cover using SAR polarimetry T1 - Bestimmung von Bodenparametern unter Vegetation mit Hilfe von SAR Polarimetrie N2 - Soil conditions under vegetation cover and their spatial and temporal variations from point to catchment scale are crucial for understanding hydrological processes within the vadose zone, for managing irrigation and consequently maximizing yield by precision farming. Soil moisture and soil roughness are the key parameters that characterize the soil status. In order to monitor their spatial and temporal variability on large scales, remote sensing techniques are required. Therefore the determination of soil parameters under vegetation cover was approached in this thesis by means of (multi-angular) polarimetric SAR acquisitions at a longer wavelength (L-band, lambda=23cm). In this thesis, the penetration capabilities of L-band are combined with newly developed (multi-angular) polarimetric decomposition techniques to separate the different scattering contributions, which are occurring in vegetation and on ground. Subsequently the ground components are inverted to estimate the soil characteristics. The novel (multi-angular) polarimetric decomposition techniques for soil parameter retrieval are physically-based, computationally inexpensive and can be solved analytically without any a priori knowledge. Therefore they can be applied without test site calibration directly to agricultural areas. The developed algorithms are validated with fully polarimetric SAR data acquired by the airborne E-SAR sensor of the German Aerospace Center (DLR) for three different study areas in Germany. The achieved results reveal inversion rates up to 99% for the soil moisture and soil roughness retrieval in agricultural areas. However, in forested areas the inversion rate drops significantly for most of the algorithms, because the inversion in forests is invalid for the applied scattering models at L-band. The validation against simultaneously acquired field measurements indicates an estimation accuracy (root mean square error) of 5-10vol.% for the soil moisture (range of in situ values: 1-46vol.%) and of 0.37-0.45cm for the soil roughness (range of in situ values: 0.5-4.0cm) within the catchment. Hence, a continuous monitoring of soil parameters with the obtained precision, excluding frozen and snow covered conditions, is possible. Especially future, fully polarimetric, space-borne, long wavelength SAR missions can profit distinctively from the developed polarimetric decomposition techniques for separation of ground and volume contributions as well as for soil parameter retrieval on large spatial scales. N2 - Zur Verbesserung der hydrologischen Abflussmodellierung, der Flutvorhersage, der gezielten Bewässerung von landwirtschaftlichen Nutzflächen und zum Schutz vor Ernteausfällen ist die Bestimmung der Bodenfeuchte und der Bodenrauhigkeit von grosser Bedeutung. Aufgrund der hohen zeitlichen sowie räumlichen Dynamik dieser Bodenparameter ist eine flächenhafte Erfassung mit hoher Auflösung und in kurzen zeitlichen Abständen notwendig. In situ Messtechniken stellen eine sehr zeit- und personalaufwändige Alternative dar, deshalb werden innovative Fernerkundungsverfahren mit aktivem Radar erprobt. Diese Aufnahmetechniken sind von Wetter- und Beleuchtungsverhältnissen unabhängig und besitzen zudem die Möglichkeit, abhängig von der Wellenlänge, in Medien einzudringen. Mit dem in dieser Arbeit verwendeten polarimetrischen Radar mit synthetischer Apertur (PolSAR) werden die Veränderungen der Polarisationen ausgewertet, da diese aufgrund der physikalischen Eigenschaften der reflektierenden Medien objektspezifisch verändert und gestreut werden. Es kann dadurch ein Bezug zwischen der empfangenen Radarwelle und den dielektrischen Eigenschaften (Feuchtegehalt) sowie der Oberflächengeometrie (Rauhigkeit) des Bodens hergestellt werden. Da vor allem in den gemässigten Klimazonen die landwirtschaftlichen Nutzflächen die meiste Zeit des Jahres mit Vegetation bestanden sind, wurden in dieser Dissertation Verfahren entwickelt, um die Bodenfeuchte und die Bodenrauhigkeit unter der Vegetation erfassen zu können. Um die einzelnen Rückstreubeiträge der Vegetation und des Bodens voneinander zu trennen, wurde die Eindringfähigkeit von längeren Wellenlängen (L-band, lambda=23cm) mit neu entwickelten (multi-angularen) polarimetrischen Dekompositionstechniken kombiniert, um die Komponente des Bodens zu extrahieren und auszuwerten. Für die Auswertung wurden polarimetrische Streumodelle benutzt, um die Bodenkomponente zu modellieren und dann mit der extrahierten Bodenkomponente der aufgenommenen Daten zu vergleichen. Die beste Übereinstimmung von Modell und Daten wurde als die gegebene Bodencharakteristik gewertet und dementsprechend invertiert. Die neu entwickelten, polarimetrischen Dekompositionstechniken für langwelliges polarimetrisches SAR basieren auf physikalischen Prinzipien, benötigen wenig Rechenzeit, erfordern keine Kalibrierung und sind ohne Verwendung von a priori Wissen analytisch lösbar. Um die entwickelten Algorithmen zu testen, wurden in drei verschiedenen Untersuchungsgebieten in Deutschland mit dem flugzeuggetragenen E-SAR Sensor des Deutschen Zentrums für Luft- und Raumfahrt (DLR) polarimetrische SAR Daten aufgenommen. Die Auswertungen der PolSAR Daten haben bestätigt, dass die besten Invertierungsergebnisse mit langen Wellenlängen erzielt werden können (L-Band). Des Weiteren konnten bei der Bestimmung der Bodenfeuchte und der Bodenrauhigkeit hohe Inversionsraten erreicht werden (bis zu 99% der Untersuchungsfläche). Es hat sich gezeigt, dass die polarimetrischen Streumodelle bei der gegebenen Wellenlänge nicht für bewaldete Gebiete geeignet sind, was die Anwendbarkeit des Verfahrens auf landwirtschaftliche Nutzflächen einschränkt. Die Validierung mit Bodenmessungen in den Untersuchungsgebieten, die zeitgleich zu den PolSAR Aufnahmen durchgeführt wurden, hat ergeben, dass eine kontinuierliche Beobachtung des Bodenzustandes (ausgenommen in Zeiten mit gefrorenem oder Schnee bedecktem Boden) mit einer Genauigkeit (Wurzel des mittleren quadratischen Fehlers) von 5-10vol.% für die Bodenfeuchte (in situ Messbereich: 1-46vol.%) und von 0.37-0.45cm für die Bodenrauhigkeit (in situ Messbereich: 0.5-4.0cm) möglich ist. Besonders künftige Fernerkundungsmissionen mit langwelligem, voll polarimetrischem SAR können von den entwickelten Dekompositionstechniken profitieren, um die Vegetationskomponente von der Bodenkomponente zu trennen und die Charakteristik des Oberbodens flächenhaft zu bestimmen. KW - SAR KW - Polarimetrie KW - Bodenfeuchte KW - polarimetrische Dekompositionen KW - Fernerkundung KW - SAR KW - Polarimetry KW - soil moisture KW - polarimetric decompositions KW - remote sensing Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60519 ER - TY - THES A1 - Ohme, Frank T1 - Bridging the gap between post-Newtonian theory and numerical relativity in gravitational-wave data analysis T1 - Die Verbindung von post-Newtonscher Theorie und Numerischer Relativitätstheorie in der Gravitationswellenanalyse N2 - One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches. N2 - Eine der aufregendsten Vorhersagen aus Einsteins Gravitationstheorie, die bisher noch nicht direkt durch ein Experiment nachgewiesen werden konnten, sind Gravitationswellen. Dies sind winzige Verzerrungen der Raumzeit selbst, und es wird erwartet, dass das aktuelle Netzwerk von groß angelegten Laserinterferometern im kommenden Jahrzehnt die erste direkte Gravitationswellenmessung realisieren kann. Eine potentielle Quelle von messbaren Gravitationswellen ist das Einspiralen und Verschmelzen zweier kompakter Objekte, wie z.B. ein Binärsystem von Schwarzen Löchern. Die erfolgreiche Identifizierung ihrer charakteristischen Signatur im Rausch-dominierten Datenstrom der Detektoren hängt allerdings entscheidend von genauen Vorhersagen ab, was wir eigentlich suchen. In dieser Arbeit wird detailliert untersucht, wie die komplettesten Wellenformenmodelle konstruiert werden können, indem die Ergebnisse von (A) analytischen Entwicklungen im post-Newtonschen Verfahren und (B) numerische Simulationen der voll-relativistischen Bewegungen verknüpft werden. Es werden verschiedene Verfahren zur Erstellung solcher "hybriden Wellenformen", bei denen der post-Newtonsche Teil mit numerischen Daten vervollständigt wird, analysiert. Existierende Strategien für nicht-rotierende Systeme werden vertieft und der beschriebene Parameterraum erweitert. Des Weiteren wird eine Alternative im Fourierraum eingeführt. Die entwickelten Methoden können nun auf multiple sphärisch-harmonische Moden und präzedierende Systeme angewandt werden. Zusätzlich wird die Genauigkeit der hybriden Wellenformen mit dem Ziel analysiert, den Einfluss verschiedener Fehlerquellen in den Näherungstechniken zu quantifizieren und die resultierenden Einschränkungen bei realen Anwendungen abzuschätzen. Dies ist von größter Bedeutung für die zukünftige Entwicklung von verbesserten Modellen, aber auch für die korrekte Interpretation von Gravitationswellenbeobachtungen, die auf Grundlage solcher Familien von Wellenformen gemacht worden sind. Insbesondere wird diskutiert, wie lang der numerische Anteil des Signals sein muss, um die Hybride genau genug konstruieren zu können. Für die aktuell umsetzbaren Simulationslängen wird die Physik eingeschätzt, die mit Hilfe von Modell-basierten Suchen potentiell untersucht werden kann. KW - Schwarze Löcher KW - Gravitationswellen KW - Numerische Relativitätstheorie KW - Datenanalyse KW - Post-Newton KW - black holes KW - gravitational waves KW - numerical relativity KW - data analysis KW - post-Newton Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60346 ER -