Refine
Has Fulltext
- yes (257) (remove)
Year of publication
- 2012 (257) (remove)
Document Type
- Doctoral Thesis (100)
- Postprint (40)
- Monograph/Edited Volume (36)
- Preprint (27)
- Article (26)
- Part of Periodical (12)
- Master's Thesis (8)
- Habilitation Thesis (2)
- Other (2)
- Working Paper (2)
Language
- English (147)
- German (106)
- Multiple languages (2)
- Russian (1)
- Spanish (1)
Is part of the Bibliography
- yes (257) (remove)
Keywords
- Nachhaltigkeit (13)
- Climate Change Conference (12)
- Durban 2011 (12)
- Entwicklungspolitik (12)
- Klima (12)
- Klimakonferenz (12)
- Klimapolitik (12)
- NGO (12)
- Politik (12)
- Wirtschaft (12)
Institute
- Institut für Mathematik (30)
- Mathematisch-Naturwissenschaftliche Fakultät (23)
- Institut für Biochemie und Biologie (22)
- WeltTrends e.V. Potsdam (21)
- Institut für Physik und Astronomie (20)
- Institut für Chemie (19)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (13)
- Zentrum für Sprachen und Schlüsselkompetenzen (Zessko) (12)
- Humanwissenschaftliche Fakultät (11)
- Wirtschaftswissenschaften (11)
In Japan wurden die sogenannten „Heisei no Daigappei“ (Große kommunale Gebietsreform) im Zeitraum von 1999 bis 2006 durchgeführt. Im Ergebnis hat sich die Anzahl der Gemeinden von 3.232 auf 1.727 – also um die Hälfte – reduziert. Auch in den neuen Bundesländern in Deutschland sind in den letzten Jahren wieder kommunale Gebietsreformen (Gemeindefusionen) durchgeführt worden. Trotzdem gibt es in Deutschland noch etwa 12.000 Gemeinden. Im Vergleich mit Japan ist die Gemeindegröße also deutlich geringer. Mit dem vorliegenden Beitrag sollen die Reformunterschiede zwischen Deutschland und Japan erklärt werden. Gefragt wird nach der „Richtung“ und der „Stärke“ der verschiedenen Vektoren (Einflussfaktoren) im Reformprozess der Gemeindefusionen. Besonders reformfördernd wirken in Japan die Vektoren Dezentralisierungsdruck und öffentliche Finanzkrise. Die Unterschiede zwischen Japan und Deutschland beim Vektor demographischer Wandel konnten nicht betrachtet werden. In Deutschland sind für den Reformfortschritt vor allem die Vektoren bürgernahe Demokratie, örtliche Verbundenheit, die Existenz des Ehrenamtsprinzips sowie die Ergänzungsfunktion der Kreise und Ämter ausschlaggebend. Insgesamt betrachtet wirken die Vektoren in Japan stärker reformfördernd als in Deutschland. Deshalb sind im Reformergebnis die Gebietsstrukturen der Gemeinden in Japan derzeit größer als in Deutschland.
The safe upper limit for inclusion of vitamin A in complete diets for growing dogs is uncertain, with the result that current recommendations range from 5.24 to 104.80 mu mol retinol (5000 to 100 000 IU vitamin A)/4184 kJ (1000 kcal) metabolisable energy (ME). The aim of the present study was to determine the effect of feeding four concentrations of vitamin A to puppies from weaning until 1 year of age. A total of forty-nine puppies, of two breeds, Labrador Retriever and Miniature Schnauzer, were randomly assigned to one of four treatment groups. Following weaning at 8 weeks of age, puppies were fed a complete food supplemented with retinyl acetate diluted in vegetable oil and fed at 1ml oil/100 g diet to achieve an intake of 5.24, 13.10, 78.60 and 104.80 mu mol retinol (5000, 12 500, 75 000 and 100 000 IU vitamin A)/4184 kJ (1000 kcal) ME. Fasted blood and urine samples were collected at 8, 10, 12, 14, 16, 20, 26, 36 and 52 weeks of age and analysed for markers of vitamin A metabolism and markers of safety including haematological and biochemical variables, bone-specific alkaline phosphatase, cross-linked carboxyterminal telopeptides of type I collagen and dual-energy X-ray absorptiometry. Clinical examinations were conducted every 4 weeks. Data were analysed by means of a mixed model analysis with Bonferroni corrections for multiple endpoints. There was no effect of vitamin A concentration on any of the parameters, with the exception of total serum retinyl esters, and no effect of dose on the number, type and duration of adverse events. We therefore propose that 104.80 mu mol retinol (100 000 IU vitamin A)/4184 kJ (1000 kcal) is a suitable safe upper limit for use in the formulation of diets designed for puppy growth.
The reaction of the German labor market to the Great Recession 2008/09 was relatively mild – especially compared to other countries. The reason lies not only in the specific type of the recession – which was favorable for the German economy structure – but also in a series of labor market reforms initiated between 2002 and 2005 altering, inter alia, labor supply incentives. However, irrespective of the mild response to the Great Recession, there are a number of substantial future challenges the German labor market will soon have to face. Female labor supply still lies well below that of other countries and a massive demographic change over the next 50 years will have substantial effects on labor supply as well as the pension system. In addition, due to a skill-biased technological change over the next decades, firms will face problems of finding employees with adequate skills. The aim of this paper is threefold. First, we outline why the German labor market reacted in such a mild fashion, describe current economic trends of the labor market in light of general trends in the European Union, and reveal some of the main associated challenges. Thereafter, the paper analyzes recent reforms of the main institutional settings of the labor market which influence labor supply. Finally, based on the status quo of these institutional settings, the paper gives a brief overview of strategies to combat adequately the challenges in terms of labor supply and to ensure economic growth in the future.
The closer the better
(2012)
A growing literature has suggested that processing of visual information presented near the hands is facilitated. In this study, we investigated whether the near-hands superiority effect also occurs with the hands moving. In two experiments, participants performed a cyclical bimanual movement task requiring concurrent visual identification of briefly presented letters. For both the static and dynamic hand conditions, the results showed improved letter recognition performance with the hands closer to the stimuli. The finding that the encoding advantage for near-hand stimuli also occurred with the hands moving suggests that the effect is regulated in real time, in accordance with the concept of a bimodal neural system that dynamically updates hand position in external space.
Aus dem Inhalt: - Themenschwerpunkt: Menschenrechte und Staatsbürgerschaft - Gibt es Menschenrechte ohne Bürgerschaft? - Menschenwürde und Staatsbürgerschaft - Die General Comments des Menschenrechtsausschusses der Vereinten Nationen – ein Beitrag zur Rechtsentwicklung im Völkerrecht - Politische Selbstbestimmung als Menschenrecht und im Völkerrecht - Libyen und der von außen unterstützte Systemwechsel
Die Arbeit geht der Frage nach inwiefern die Capability Based View (CBV) einen Erklärungsbeitrag für die Verwaltungsforschung leisten kann. Dazu unterzieht sie die CBV einer kritischen Betrachtung und benennt die wichtigsten Merkmale dieses – nach wie vor unscharfen – Konzepts mit Bezug zum öffentlichen Sektor. Sie zeigt Parallelen von Ansätzen und Ergebnissen der Verwaltungsforschung zur CBV auf und stellt ihre generelle Verwendbarkeit in diesem Kontext fest. Ebenso diagnostiziert sie jedoch signifikanten Verbesserungsbedarf hinsichtlich der Klarheit des Konzepts. Eine Fokussierung auf den öffentlichen Sektor verspricht eher eine Konsolidierung und Weiterentwicklung der CBV als deren Erforschung im Privatsektor, da das multidimensionale und mehrstufige Verständnis von Performance im öffentlichen Sektor deutlich besser zur Wirkungslogik der CBV passt. Die Arbeit schließt mit einer Forschungsagenda, welche die wichtigsten Fragen zur Weiterentwicklung aufzeigt, und dem Appell für mehr qualitative empirische Forschung in diesem neuen Feld des Public Managements.
Die deutsche Energiewirtschaft befindet sich im Umbruch. Ein neuer staatlicher Ordnungsrahmen wurde geschaffen. Zentrales Element für die Regulierung der Stromnetze ist die „Anreizregulierung“ ‒ simulierter Wettbewerb, zentral gesteuert von der Bundesnetzagentur, um missbräuchliches Verhalten auszuschließen. Ausgehend von der Entwicklung des Energiemarktes seit dem 19. Jahrhundert analysiert Kai Kleinwächter die unterschiedlichen Interessen der Bundes- und Länderregierungen, der Stadtwerke sowie der großen Energiekonzerne bei der Einführung dieses Steuerungsinstrumentes. Bewertet werden auch die politischen Machtpotenziale der Akteure sowie ihr Einfluss auf den Gesetzgebungsprozess.
Duplicate detection is the task of identifying all groups of records within a data set that represent the same real-world entity, respectively. This task is difficult, because (i) representations might differ slightly, so some similarity measure must be defined to compare pairs of records and (ii) data sets might have a high volume making a pair-wise comparison of all records infeasible. To tackle the second problem, many algorithms have been suggested that partition the data set and compare all record pairs only within each partition. One well-known such approach is the Sorted Neighborhood Method (SNM), which sorts the data according to some key and then advances a window over the data comparing only records that appear within the same window. We propose several variations of SNM that have in common a varying window size and advancement. The general intuition of such adaptive windows is that there might be regions of high similarity suggesting a larger window size and regions of lower similarity suggesting a smaller window size. We propose and thoroughly evaluate several adaption strategies, some of which are provably better than the original SNM in terms of efficiency (same results with fewer comparisons).
Diese Arbeit befasst sich mit der Synthese und Charakterisierung von organolöslichen Thiophen und Benzodithiophen basierten Materialien und ihrer Anwendung als aktive lochleitende Halbleiterschichten in Feldeffekttransistoren. Im ersten Teil der Arbeit wird durch eine gezielte Modifikation des Thiophengrundgerüstes eine neue Comonomer-Einheit für die Synthese von Thiophen basierten Copolymeren erfolgreich dargestellt. Die hydrophoben Hexylgruppen in der 3-Position des Thiophens werden teilweise durch hydrophile 3,6-Dioxaheptylgruppen ersetzt. Über die Grignard-Metathese nach McCullough werden statistische Copolymere mit unterschiedlichen molaren Anteilen vom hydrophoben Hexyl- und hydrophilem 3,6-Dioxaheptylgruppen 1:1 (P-1), 1:2 (P-2) und 2:1 (P-3) erfolgreich hergestellt. Auch die Synthese eines definierten Blockcopolymers BP-1 durch sequentielle Addition der Comonomere wird realisiert. Optische und elektrochemische Eigenschaften der neuartigen Copolymere sind vergleichbar mit P3HT. Mit allen Copolymeren wird ein charakteristisches Transistorverhalten in einem Top-Gate/Bottom-Kontakt-Aufbau erhalten. Dabei werden mit P-1 als die aktive Halbleiterschicht im Bauteil, PMMA als Dielektrikum und Silber als Gate-Elektrode Mobilitäten von bis zu 10-2 cm2/Vs erzielt. Als Folge der optimierten Grenzfläche zwischen Dielektrikum und Halbleiter wird eine Verbesserung der Luftstabilität der Transistoren über mehrere Monate festgestellt. Im zweiten Teil der Arbeit werden Benzodithiophen basierte organische Materialien hergestellt. Für die Synthese der neuartigen Benzodithiophen-Derivate wird die Schlüsselverbindung TIPS-BDT in guter Ausbeute dargestellt. Die Difunktionalisierung von TIPS-BDT in den 2,6-Positionen über eine elektrophile Substitution liefert die gewünschten Dibrom- und Distannylmonomere. Zunächst werden über die Stille-Reaktion alternierende Copolymere mit alkylierten Fluoren- und Chinoxalin-Einheiten realisiert. Alle Copolymere zeichnen sich durch eine gute Löslichkeit in gängigen organischen Lösungsmitteln, hohe thermische Stabilität und durch gute Filmbildungseigenschaften aus. Des Weiteren sind alle Copolymere mit HOMO Lagen höher als -6.3 eV, verglichen mit den Thiophen basierten Copolymeren (P-1 bis P-3), sehr oxidationsstabil. Diese Copolymere zeigen amorphes Verhalten in den Halbleiterschichten in OFETs auf und es werden Mobilitäten bis zu 10-4 cm2/Vs erreicht. Eine Abhängigkeit der Bauteil-Leistung von dem Zinngehalt-Rest im Polymer wird nachgewiesen. Ein Zinngehalt von über 0.6 % kann enormen Einfluss auf die Mobilität ausüben, da die funktionellen SnMe3-Gruppen als Fallenzustände wirken können. Alternativ wird das alternierende TIPS-BDT/Fluoren-Copolymer P-5-Stille nach der Suzuki-Methode polymerisiert. Mit P-5-Suzuki als die aktive organische Halbleiterschicht im OFET wird die höchste Mobilität von 10-2 cm2/Vs erzielt. Diese Mobilität ist somit um zwei Größenordnungen höher als bei P-5-Stille, da die Fallenzustände in diesem Fall minimiert werden und folglich der Ladungstransport verbessert wird. Sowohl das Homopolymer P-12 als auch das Copolymer mit dem aromatischen Akzeptor Benzothiadiazol P-9 führen zu schwerlöslichen Polymeren. Aus diesem Grund werden einerseits Terpolymere aus TIPS-BDT/Fluoren/BTD-Einheiten P-10 und P-11 aufgebaut und andererseits wird versucht die TIPS-BDT-Einheit in die Seitenkette des Styrols einzubringen. Mit der Einführung von BTD in die Hauptpolymerkette werden insbesondere die Absorptions- und die elektrochemischen Eigenschaften beeinflusst. Im Vergleich zu dem TIPS-BDT/Fluoren-Copolymer reicht die Absorption bis in den sichtbaren Bereich und die LUMO Lage wird zu niederen Werten verschoben. Eine Verbesserung der Leistung in den Bauteilen wird jedoch nicht festgestellt. Die erfolgreiche erstmalige Synthese von TIPS-BDT als Seitenkettenpolymer an Styrol P-13 führt zu einem löslichen und amorphen Polymer mit vergleichbaren Mobilitäten von Styrol basierten Polymeren (µ = 10-5 cm2/Vs) im OFET. Ein weiteres Ziel dieser Arbeit ist die Synthese von niedermolekularen organolöslichen Benzodithiophen-Derivaten. Über Suzuki- und Stille-Reaktionen ist es erstmals möglich, verschiedenartige Aromaten über eine σ-Bindung an TIPS-BDT in den 2,6-Positionen zu knüpfen. Die UV/VIS-Untersuchungen zeigen, dass die Absorption durch die Verlängerung der π-Konjugationslänge zu höheren Wellenlängen verschoben wird. Darüber hinaus ist es möglich, thermisch vernetzbare Gruppen wie Allyloxy in das Molekülgerüst einzubauen. Das Einführen von F-Atomen in das Molekülgerüst resultiert in einer verstärkten Packungsordnung im Fluorbenzen funktionalisiertem TIPS-BDT (SM-4) im Festkörper mit sehr guten elektronischen Eigenschaften im OFET, wobei Mobilitäten bis zu 0.09 cm2/Vs erreicht werden.
In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein.
Neben der Frage nach der leistungssteigernden Wirkung von sogenannten "Ich-kann"-Checklisten auf die Metakognitionsstrategien der Schülerinnen und Schüler, geht die Arbeit auch den Fragen nach, welche Schülerinnen und Schüler "Ich-kann"-Checklisten nutzen, in welcher Form und unter welchen Kontextmerkmalen sie am wirksamsten sind. Dabei handelt es sich um Listen mit festgelegten, fachlichen und überfachlichen Kompetenzen einer bzw. mehrerer Unterrichtseinheiten, die in Form von „Ich-kann“-Formulierungen für Schüler geschrieben sind und die Aufforderung einer Selbst- und Fremdeinschätzung beinhalten. Blickt man in die Veröffentlichungen der letzten Jahre zu diesem Thema und in die schulische Praxis, so ist eine deutliche Hinwendung zur Entwicklung und Arbeit mit „Ich-kann“-Checklisten und Kompetenzrastern zu erkennen. Umso erstaunlicher ist es, dass diesbezüglich so gut wie keine empirischen Untersuchungen vorliegen (vgl. Bastian & Merziger, 2007; Merziger, 2007). Basierend auf einer quantitativen Erhebung von 197 Gymnasialschülerinnen und -schülern in der 7. Jahrgangsstufe im Fach Deutsch wurde über einen Zeitraum von zwei Jahren diesen übergeordneten Fragen nachgegangen. Die Ergebnisse lassen die Aussagen zu, dass "Ich-kann"-Checklisten insbesondere für Jungen ein wirksames pädagogisches Instrument der Selbstregulation darstellen. So fördert die Arbeit mit "Ich-kann"-Checklisten nicht nur die Steuerung eigener Lernprozesse, sondern auch die Anstrengungsbereitschaft der Schülerinnen und Schüler, mehr für das Fach tun zu wollen. Eine während der Intervention erfolgte Selbsteinschätzung über den Leistungsstand mittels der "Ich-kann"-Checklisten fördert dabei den freiwilligen außerunterrichtlichen Gebrauch.
In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert.
Governments at central and sub-national levels are increasingly pursuing participatory mechanisms in a bid to improve governance and service delivery. This has been largely in the context of decentralization reforms in which central governments transfer (share) political, administrative, fiscal and economic powers and functions to sub-national units. Despite the great international support and advocacy for participatory governance where citizen’s voice plays a key role in decision making of decentralized service delivery, there is a notable dearth of empirical evidence as to the effect of such participation. This is the question this study sought to answer based on a case study of direct citizen participation in Local Authorities (LAs) in Kenya. This is as formally provided for by the Local Authority Service Delivery Action Plan (LASDAP) framework that was established to ensure citizens play a central role in planning and budgeting, implementation and monitoring of locally identified services towards improving livelihoods and reducing poverty. Influence of participation was assessed in terms of how it affected five key determinants of effective service delivery namely: efficient allocation of resources; equity in service delivery; accountability and reduction of corruption; quality of services; and, cost recovery. It finds that the participation of citizens is minimal and the resulting influence on the decentralized service delivery negligible. It concludes that despite the dismal performance of citizen participation, LASDAP has played a key role towards institutionalizing citizen participation that future structures will build on. It recommends that an effective framework of citizen participation should be one that is not directly linked to politicians; one that is founded on a legal framework and where citizens have a legal recourse opportunity; and, one that obliges LA officials both to implement what citizen’s proposals which meet the set criteria as well as to account for their actions in the management of public resources.
In older research literature, the prose epics emerging from the court of Elisabeth of Lorraine and Nassau-Saarbrücken have repeatedly been accused of lacking structure and literariness. By contrast, this article shows that narrative principles of seriality generate the complex structure of the voluminous ›Loher und Maller‹: literary strategies of repetition and variation organize the text on different levels. Recurring narrative structures, thematic constellations and motivations as well as lexical stereotypes are part of this comprehensive principle of seriality. Not triviality and insufficiency, but structural and narrative complexity and lexical accumulation of significance characterize ›Loher und Maller‹.
Die Zivilgesellschaft hat dazu beigetragen, dass die Klimakonferenz in
Kopenhagen zu einem Medienereignis wurde. Fernab großer Demonstrationen
haben Nichtregierungsorganisationen (NRO) seit Jahren
einen guten Zugang zu den internationalen Klimaverhandlungen. Am
Beispiel von Chile wird gezeigt, wie Nichtregierungsorganisationen
durch professionellen Lobbyismus ihre Positionen in politische Prozesse
einspeisen. Sie befinden sich in einem Spannungsfeld von Kooperation
und Instrumentalisierung durch politische Entscheidungsträger.
Gescheiterte Klimapolitik?
(2012)
Der Kopenhagener Klimagipfel 2009 ist mit Spannung erwartet worden.
Erreicht wurde lediglich ein Minimalkonsens. Der Autor liefert eine
akteurszentrierte Deutung des Kopenhagener Abkommens und stellt die
Frage nach dem Präzedenzcharakter der Verhandlungen: Handelte es sich
um ein einmaliges Versagen multilateraler Diplomatie oder um einen
Vorgeschmack auf die weltpolitische Routine des 21. Jahrhunderts?
Üblicherweise vermeiden deutsche Parteien Kampfkandidaturen um den Vorsitz. Dennoch kam es auf dem Mannheimer SPD-Parteitag 1995 zu einer unerwarteten offenen Konkurrenz um das Spitzenamt. Das unbeabsichtigte Scheitern der Inszenierung der „Geschlossenheit“ der Partei führte zum Ausbruch der bis dahin unterdrückten Kämpfe um den Parteivorsitz. Der Mannheimer Parteitag steht exemplarisch für den Zusammenhang zwischen Inszenierung, Disziplin und den informellen Regeln innerparteilicher Machtkonstruktion. Am Beispiel dieses Parteitages zeigt die vorliegende Arbeit, wie umstrittenen Parteivorsitzenden sich gegen Widerstände im Amt behaupten können bzw. woran diese Strategie scheitern kann. Aus figurationstheoretischer Perspektive wird die Inszenierung als Notwendigkeit medienvermittelter Parteienkonkurrenz um Wählerstimmen gefasst. Inszenierung erfordert Selbstdisziplin und das koordinierte Handeln der Parteimitglieder. Innerparteilich wird so wechselseitige Abhängigkeit erzeugt. Diese wird gesteigert durch die Medien-Konzentration auf wenige Spitzenpolitiker. Die Mehrheit der Mandatsträger und Funktionäre ist angewiesen auf das medienwirksame Auftreten der Führung. Für den Medienerfolg braucht die Führung ihrerseits die Unterstützung der Mitglieder. Diese wechselseitige Abhängigkeit erzeugt sowohl typische Relevanzen als auch Möglichkeiten, die jeweils andere Interessengruppe unter Zugzwang zu setzen. Imageprobleme des Vorsitzenden sind als verletzte Erwartungen Anlass für innerparteiliche Machtkämpfe, in denen die Parteiführung insbesondere die Inszenierung der „Geschlossenheit“ nutzen kann, um offene Personaldiskussionen zu verhindern. Da Handlungsoptionen und -grenzen durch das Handeln der Akteure immer wieder neu geschaffen werden, besteht stets das Risiko des Scheiterns innerparteilicher Disziplinierung. Mit dem Nachvollzug von Disziplinierung und den Gründen ihrer Kontingenz versteht sich die vorliegende Arbeit als Beitrag zu einer Theorie informeller Machtregeln in Organisationen mit schwach ausgeprägten Herrschaftsstrukturen. Im ersten Teil der Arbeit wird der Zusammenhang zwischen Inszenierung und Macht durch die Konzepte Theatralität und Figuration entwickelt. Im zweiten Teil werden typische Konstellationen der gegenwärtigen parlamentarischen Demokratie auf typische beziehungsvermittelte Situationsdeutungen, Handlungsmöglichkeiten und -grenzen untersucht. Im dritten Teil wird der kontingente Prozess des innerparteilichen Machtkampfes am Beispiel des Mannheimer Parteitages 1995 nachvollzogen.
Deutschland hat sich innerhalb kurzer Zeit zu einem bedeutenden sicherheitspolitischen Akteur im Weltraum entwickelt. Am 1. Dezember 2010 stellte die Bundesregierung die deutsche Raumfahrtstrategie vor. Immer wieder ist die Rede von der strategischen Bedeutung des Weltraums für die deutsche Sicherheitspolitik. Eine fundierte und überprüfbare Begründung für diese Behauptung fehlt indes. Der Politikwissenschaftler Cornelius Vogt analysiert die strategischen Aspekte deutscher Weltraumsicherheitspolitik. Seine Untersuchung des strategischen Umfeldes, der nationalen Interessen, des sicherheitspolitischen Nutzens des Weltraums und der wichtigsten Anwendungsfelder zeigt, dass der Weltraum zum unverzichtbaren Bestandteil der gesamtstaatlichen Sicherheitsvorsorge avanciert ist.
Die Bittergeschmacksrezeptoren stellen in der Superfamilie der G-Protein-gekoppelten Rezeptoren eine besondere Gruppe dar. Im Menschen können die 25 Rezeptoren eine große Anzahl unterschiedlichster Bittergeschmacksstoffe detektieren. Diese Substanzen können sowohl schädlich, wie etwa Strychnin, als auch der Gesundheit förderliche Arzneistoffe, wie etwa Chloramphenicol sein. Unter den Bittergeschmacksrezeptoren des Menschen gibt es eine Gruppe von drei Rezeptoren, die besonders viele Bitterstoffe detektieren können. Einer von ihnen ist der Rezeptor hTAS2R10. In dieser Arbeit konnte sowohl experimentell als auch durch computergestützte Modellierung gezeigt werden, dass der hTAS2R10 nur eine Bindungstasche besitzt. Das stimmt mit den bisher ausführlich experimentell und in silico untersuchten Rezeptoren hTAS2R1, -R16, -R38 und -R46 überein. Die für die Agonisteninteraktionen nachweislich wichtigen Transmembrandomänen sind in den bisher untersuchten Bittergeschmacksrezeptoren, wie auch im hTAS2R10, die Transmembrandomänen 3, 5, 6 und 7. Die Untersuchungen zeigten, dass die Bindungstasche des hTAS2R10 in der oberen Hälfte des zum extrazellulären Raum gerichteten Bereichs lokalisiert ist. Insbesondere konnte für die untersuchten Agonisten Strychnin, Parthenolid und Denatoniumbenzoat gezeigt werden, dass die Seitenketten der Aminosäuren in Position 3.29 und 5.40 ausgeprägte agonistenselektive Wechselwirkungen eingehen. Weitere Untersuchungen haben ergeben, dass das weitgefächerte Agonistenspektrum des hTAS2R10 zu Lasten der Sensitivität für einzelne Bitterstoffe geht. Der Vergleich wichtiger Positionen im hTAS2R10, hTAS2R46 und mTas2r105 hat deutlich gemacht, dass sich die Bindungsmodi zwischen diesen Rezeptoren unterscheiden. Dies deutet auf eine getrennte evolutionäre Entwicklung der Bindungseigenschaften dieser Rezeptoren hin. Gleichfalls zeigten die Untersuchungen, dass einige Positionen wie z.B. 7.39 die Funktion aller untersuchten Bittergeschmacksrezeptoren prägen, sich jedoch die genaue Bedeutung im jeweiligen Rezeptor unterscheiden kann. Einzelne dieser Positionen konnten auch bei der Agonisteninteraktion des Rhodopsins und des β2-adrenergen Rezeptors beobachtet werden. Die Ergebnisse dieser Arbeit helfen dabei die Wechselwirkungen zwischen Bitterstoffen und den Bittergeschmacksrezeptoren zu verstehen und geben erste Einblicke in die Entwicklung der Rezeptoren in Hinblick auf ihren Funktionsmechanismus. Diese Erkenntnisse können genutzt werden, um Inhibitoren zu entwickeln, die sowohl ein wichtiges Werkzeug in der Rezeptoranalytik wären, als auch dazu genutzt werden könnten, den unerwünschten bitteren Geschmack von Medikamenten oder gesundheitsfördernden sekundären Pflanzenstoffen zu mindern. Damit könnte ein Beitrag zur Gesundheit der Menschen geleistet werden.
We develop the method of Fischer-Riesz equations for general boundary value problems elliptic in the sense of Douglis-Nirenberg. To this end we reduce them to a boundary problem for a (possibly overdetermined) first order system whose classical symbol has a left inverse. For such a problem there is a uniquely determined boundary value problem which is adjoint to the given one with respect to the Green formula. On using a well elaborated theory of approximation by solutions of the adjoint problem, we find the Cauchy data of solutions of our problem.
In many applications one is faced with the problem of inferring some functional relation between input and output variables from given data. Consider, for instance, the task of email spam filtering where one seeks to find a model which automatically assigns new, previously unseen emails to class spam or non-spam. Building such a predictive model based on observed training inputs (e.g., emails) with corresponding outputs (e.g., spam labels) is a major goal of machine learning. Many learning methods assume that these training data are governed by the same distribution as the test data which the predictive model will be exposed to at application time. That assumption is violated when the test data are generated in response to the presence of a predictive model. This becomes apparent, for instance, in the above example of email spam filtering. Here, email service providers employ spam filters and spam senders engineer campaign templates such as to achieve a high rate of successful deliveries despite any filters. Most of the existing work casts such situations as learning robust models which are unsusceptible against small changes of the data generation process. The models are constructed under the worst-case assumption that these changes are performed such to produce the highest possible adverse effect on the performance of the predictive model. However, this approach is not capable to realistically model the true dependency between the model-building process and the process of generating future data. We therefore establish the concept of prediction games: We model the interaction between a learner, who builds the predictive model, and a data generator, who controls the process of data generation, as an one-shot game. The game-theoretic framework enables us to explicitly model the players' interests, their possible actions, their level of knowledge about each other, and the order at which they decide for an action. We model the players' interests as minimizing their own cost function which both depend on both players' actions. The learner's action is to choose the model parameters and the data generator's action is to perturbate the training data which reflects the modification of the data generation process with respect to the past data. We extensively study three instances of prediction games which differ regarding the order in which the players decide for their action. We first assume that both player choose their actions simultaneously, that is, without the knowledge of their opponent's decision. We identify conditions under which this Nash prediction game has a meaningful solution, that is, a unique Nash equilibrium, and derive algorithms that find the equilibrial prediction model. As a second case, we consider a data generator who is potentially fully informed about the move of the learner. This setting establishes a Stackelberg competition. We derive a relaxed optimization criterion to determine the solution of this game and show that this Stackelberg prediction game generalizes existing prediction models. Finally, we study the setting where the learner observes the data generator's action, that is, the (unlabeled) test data, before building the predictive model. As the test data and the training data may be governed by differing probability distributions, this scenario reduces to learning under covariate shift. We derive a new integrated as well as a two-stage method to account for this data set shift. In case studies on email spam filtering we empirically explore properties of all derived models as well as several existing baseline methods. We show that spam filters resulting from the Nash prediction game as well as the Stackelberg prediction game in the majority of cases outperform other existing baseline methods.
Education in knowledge society is challenged with a lot of problems in particular the interaction between the teacher and learner in social networking software as a key factor affects the learners’ learning and satisfaction (Prammanee, 2005) where “to teach is to communicate, to communicate is to interact, to interact is to learn” (Hefzallah, 2004, p. 48). Analyzing the relation between teacher-learner interaction from a side and learning outcome and learners’ satisfaction from the other side, some basic problems regarding a new learning culture using social networking software are discussed. Most of the educational institutions pay a lot of attentions to the equipments and emerging Information and Communication Technologies (ICTs) in learning situations. They try to incorporate ICT into their institutions as teaching and learning environments. They do this because they expect that by doing so they will improve the outcome of the learning process. Despite this, the learning outcome as reported in most studies is very limited, because the expectations of self-directed learning are much higher than the reality. Findings from an empirical study (investigating the role of teacher-learner interaction through new digital media wiki in higher education and learning outcome and learner’s satisfaction) are presented recommendations about the necessity of pedagogical interactions in support of teaching and learning activities in wiki courses in order to improve the learning outcome. Conclusions show the necessity for significant changes in the approach of vocational teacher training programs of online teachers in order to meet the requirements of new digital media in coherence with a new learning culture. These changes have to address collaborative instead of individual learning and ICT wiki as a tool for knowledge construction instead of a tool for gathering information.
Cargo transport by molecular motors is ubiquitous in all eukaryotic cells and is typically driven cooperatively by several molecular motors, which may belong to one or several motor species like kinesin, dynein or myosin. These motor proteins transport cargos such as RNAs, protein complexes or organelles along filaments, from which they unbind after a finite run length. Understanding how these motors interact and how their movements are coordinated and regulated is a central and challenging problem in studies of intracellular transport. In this thesis, we describe a general theoretical framework for the analysis of such transport processes, which enables us to explain the behavior of intracellular cargos based on the transport properties of individual motors and their interactions. Motivated by recent in vitro experiments, we address two different modes of transport: unidirectional transport by two identical motors and cooperative transport by actively walking and passively diffusing motors. The case of cargo transport by two identical motors involves an elastic coupling between the motors that can reduce the motors’ velocity and/or the binding time to the filament. We show that this elastic coupling leads, in general, to four distinct transport regimes. In addition to a weak coupling regime, kinesin and dynein motors are found to exhibit a strong coupling and an enhanced unbinding regime, whereas myosin motors are predicted to attain a reduced velocity regime. All of these regimes, which we derive both by analytical calculations and by general time scale arguments, can be explored experimentally by varying the elastic coupling strength. In addition, using the time scale arguments, we explain why previous studies came to different conclusions about the effect and relevance of motor-motor interference. In this way, our theory provides a general and unifying framework for understanding the dynamical behavior of two elastically coupled molecular motors. The second mode of transport studied in this thesis is cargo transport by actively pulling and passively diffusing motors. Although these passive motors do not participate in active transport, they strongly enhance the overall cargo run length. When an active motor unbinds, the cargo is still tethered to the filament by the passive motors, giving the unbound motor the chance to rebind and continue its active walk. We develop a stochastic description for such cooperative behavior and explicitly derive the enhanced run length for a cargo transported by one actively pulling and one passively diffusing motor. We generalize our description to the case of several pulling and diffusing motors and find an exponential increase of the run length with the number of involved motors.
One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches.
In der vorliegenden Arbeit soll der Zusammenhang zwischen Staatsverschuldung und Inflation untersucht werden. Es werden theoretische Übertragungswege von der Staatsverschuldung über die Geldmenge und die langfristigen Zinsen hin zur Inflation gezeigt. Aufbauend auf diesen theoretischen Überlegungen werden die Variablen Staatsverschuldung, Verbraucherpreisindex, Geldmenge M3 und langfristige Zinsen im Rahmen eines Vektor-Fehlerkorrekturmodells untersucht. In der empirischen Analyse werden die Variablen für Deutschland in dem Zeitraum vom 1. Quartal 1991 bis zum 4. Quartal 2010 betrachtet. In ein Vektor-Fehlerkorrekturmodell fließen alle Variablen als potentiell endogen in das Modell ein. Die Ermittlung der Kointegrationsbeziehungen und die Schätzung des Vektor-Fehlerkorrekturmodells erfolgen mithilfe des Johansen-Verfahrens.
Dario Fos "Morte accidentale di un anarchico" und seine Adaptationen in Frankreich und Deutschland
(2012)
Dario Fo (Nobelpreis 1997) ist einer der herausragendsten Erneuerer des italienischen Theaters des 20. Jahrhunderts. Ein Überblick über die wichtigsten Stationen seines künstlerischen Schaffens zeugt zunächst von Fos stetem Bemühen um innovative Ansätze in Bezug auf Theaterkonzeption und –praxis: immer gilt es, sich von den Konventionen des literarischen, bürgerlichen, subventionierten, weitgehend passiv rezipierten Theaters abzugrenzen und das Theater für das Publikum wieder ganzheitlich erfahrbar zu machen. Doch nicht selten geraten er und seine Truppe dabei in Konflikt mit den herrschenden politischen und gesellschaftlichen Umständen. Dies trifft auch auf sein Stück "Morte accidentale di un anarchico" (1970) zu, dessen Analyse im Zentrum dieser Arbeit steht. Ein realhistorischer Fall, der "Fall Pinelli" (bzw. "la strage di Piazza Fontana") 1969, diente Fo als Grundlage seiner sehr zeitnah entstandenen grotesken Farce, die aufgrund ihrer politischen Brisanz für Aufruhr sorgte und die auch im Ausland bis heute immer wieder auf den Spielplänen zu finden ist. Die Arbeit geht daher nicht nur auf die Produktion, Inszenierung und Rezeption des Stücks in Italien ein, sondern nimmt auch die Adaptationen und deren Rezeption in Frankreich und Deutschland in den Blick, wobei die italienspezifische Ausrichtung von Fos Theater (Rekurs auf Traditionen des italienischen Volkstheaters, Verarbeitung (tages)politischen Geschehens etc.) eine besondere Herausforderung für die fremdsprachige Bearbeitung des Stückes und seine Inszenierung darstellt. Neben den produktions- und rezeptionsästhetischen Grundbedingungen des Textes von Dario Fo werden in diesem Zusammenhang auch Spezifika der Bühnenübersetzung beleuchtet und Alternativen hierzu aufgezeigt, die auch bereits von Fos Truppe genutzt werden.
Neben der Frequenz eines cues ist es dessen Zuverlässigkeit, die Kindern hilft, die an sie gerichtete Sprache zu segmentieren, Worteinheiten zu erkennen sowie diese syntaktisch zu kategorisieren. Im Deutschen weist die Subsilbe „Langvokal+Konsonant+/t/“ (z.B. in fehlt, wohnt) zuverlässig auf eine -t-flektierte Verbform hin. Die in kindgerichteter Sprache höher frequente Subsilbe „Kurzvokal+Konsonant+/t/“ (z.B. in Feld, Hemd, fällt, rund) gibt hingegen keinen derartig eindeutigen Hinweis. Es wurde der Frage nachgegangen, inwiefern diese unterschiedlichen Zuverlässigkeiten und Frequenzen der Subsilben auf die Nomen-, Verb- und Verbflexionsverarbeitung einwirken. Drei Altersgruppen wurden untersucht: achtzehn Monate alte Kinder, drei- bis fünfjährige sprachunauffällige und -auffällige Kinder sowie erwachsene Sprecher. Einflüsse der unterschiedlichen Zuverlässigkeiten und Frequenzen der ausgewählten Subsilben konnten für alle Probandengruppen gefunden werden. Die Subsilbe stellt damit eine linguistische Größe dar, die in der frühen Sprachwahrnehmung als cue dienen sowie die Sprachverarbeitung Erwachsener lenken kann und auch für die Sprachdiagnostik und -therapie sprachauffälliger Kinder berücksichtigt werden sollte.
One of the key challenges in service-oriented systems engineering is the prediction and assurance of non-functional properties, such as the reliability and the availability of composite interorganizational services. Such systems are often characterized by a variety of inherent uncertainties, which must be addressed in the modeling and the analysis approach. The different relevant types of uncertainties can be categorized into (1) epistemic uncertainties due to incomplete knowledge and (2) randomization as explicitly used in protocols or as a result of physical processes. In this report, we study a probabilistic timed model which allows us to quantitatively reason about nonfunctional properties for a restricted class of service-oriented real-time systems using formal methods. To properly motivate the choice for the used approach, we devise a requirements catalogue for the modeling and the analysis of probabilistic real-time systems with uncertainties and provide evidence that the uncertainties of type (1) and (2) in the targeted systems have a major impact on the used models and require distinguished analysis approaches. The formal model we use in this report are Interval Probabilistic Timed Automata (IPTA). Based on the outlined requirements, we give evidence that this model provides both enough expressiveness for a realistic and modular specifiation of the targeted class of systems, and suitable formal methods for analyzing properties, such as safety and reliability properties in a quantitative manner. As technical means for the quantitative analysis, we build on probabilistic model checking, specifically on probabilistic time-bounded reachability analysis and computation of expected reachability rewards and costs. To carry out the quantitative analysis using probabilistic model checking, we developed an extension of the Prism tool for modeling and analyzing IPTA. Our extension of Prism introduces a means for modeling probabilistic uncertainty in the form of probability intervals, as required for IPTA. For analyzing IPTA, our Prism extension moreover adds support for probabilistic reachability checking and computation of expected rewards and costs. We discuss the performance of our extended version of Prism and compare the interval-based IPTA approach to models with fixed probabilities.
This thesis contains several theoretical studies on optomechanical systems, i.e. physical devices where mechanical degrees of freedom are coupled with optical cavity modes. This optomechanical interaction, mediated by radiation pressure, can be exploited for cooling and controlling mechanical resonators in a quantum regime. The goal of this thesis is to propose several new ideas for preparing meso- scopic mechanical systems (of the order of 10^15 atoms) into highly non-classical states. In particular we have shown new methods for preparing optomechani-cal pure states, squeezed states and entangled states. At the same time, proce-dures for experimentally detecting these quantum effects have been proposed. In particular, a quantitative measure of non classicality has been defined in terms of the negativity of phase space quasi-distributions. An operational al- gorithm for experimentally estimating the non-classicality of quantum states has been proposed and successfully applied in a quantum optics experiment. The research has been performed with relatively advanced mathematical tools related to differential equations with periodic coefficients, classical and quantum Bochner’s theorems and semidefinite programming. Nevertheless the physics of the problems and the experimental feasibility of the results have been the main priorities.
Complex networks have been successfully employed to represent different levels of biological systems, ranging from gene regulation to protein-protein interactions and metabolism. Network-based research has mainly focused on identifying unifying structural properties, including small average path length, large clustering coefficient, heavy-tail degree distribution, and hierarchical organization, viewed as requirements for efficient and robust system architectures. Existing studies estimate the significance of network properties using a generic randomization scheme - a Markov-chain switching algorithm - which generates unrealistic reactions in metabolic networks, as it does not account for the physical principles underlying metabolism. Therefore, it is unclear whether the properties identified with this generic approach are related to the functions of metabolic networks. Within this doctoral thesis, I have developed an algorithm for mass-balanced randomization of metabolic networks, which runs in polynomial time and samples networks almost uniformly at random. The properties of biological systems result from two fundamental origins: ubiquitous physical principles and a complex history of evolutionary pressure. The latter determines the cellular functions and abilities required for an organism’s survival. Consequently, the functionally important properties of biological systems result from evolutionary pressure. By employing randomization under physical constraints, the salient structural properties, i.e., the smallworld property, degree distributions, and biosynthetic capabilities of six metabolic networks from all kingdoms of life are shown to be independent of physical constraints, and thus likely to be related to evolution and functional organization of metabolism. This stands in stark contrast to the results obtained from the commonly applied switching algorithm. In addition, a novel network property is devised to quantify the importance of reactions by simulating the impact of their knockout. The relevance of the identified reactions is verified by the findings of existing experimental studies demonstrating the severity of the respective knockouts. The results suggest that the novel property may be used to determine the reactions important for viability of organisms. Next, the algorithm is employed to analyze the dependence between mass balance and thermodynamic properties of Escherichia coli metabolism. The thermodynamic landscape in the vicinity of the metabolic network reveals two regimes of randomized networks: those with thermodynamically favorable reactions, similar to the original network, and those with less favorable reactions. The results suggest that there is an intrinsic dependency between thermodynamic favorability and evolutionary optimization. The method is further extended to optimizing metabolic pathways by introducing novel chemically feasibly reactions. The results suggest that, in three organisms of biotechnological importance, introduction of the identified reactions may allow for optimizing their growth. The approach is general and allows identifying chemical reactions which modulate the performance with respect to any given objective function, such as the production of valuable compounds or the targeted suppression of pathway activity. These theoretical developments can find applications in metabolic engineering or disease treatment. The developed randomization method proposes a novel approach to measuring the significance of biological network properties, and establishes a connection between large-scale approaches and biological function. The results may provide important insights into the functional principles of metabolic networks, and open up new possibilities for their engineering.
Since available phosphate (Pi) resources in soil are limited, symbiotic interactions between plant roots and arbuscular mycorrhizal (AM) fungi are a widespread strategy to improve plant phosphate nutrition. The repression of AM symbiosis by a high plant Pi-status indicates a link between Pi homeostasis signalling and AM symbiosis development. This assumption is supported by the systemic induction of several microRNA399 (miR399) primary transcripts in shoots and a simultaneous accumulation of mature miR399 in roots of mycorrhizal plants. However, the physiological role of this miR399 expression pattern is still elusive and offers the question whether other miRNAs are also involved in AM symbiosis. Therefore, a deep sequencing approach was applied to investigate miRNA-mediated posttranscriptional gene regulation in M. truncatula mycorrhizal roots. Degradome analysis revealed that 185 transcripts were cleaved by miRNAs, of which the majority encoded transcription factors and disease resistance genes, suggesting a tight control of transcriptional reprogramming and a downregulation of defence responses by several miRNAs in mycorrhizal roots. Interestingly, 45 of the miRNA-cleaved transcripts showed a significant differentially regulated between mycorrhizal and non-mycorrhizal roots. In addition, key components of the Pi homeostasis signalling pathway were analyzed concerning their expression during AM symbiosis development. MtPhr1 overexpression and time course expression data suggested a strong interrelation between the components of the PHR1-miR399-PHO2 signalling pathway and AM symbiosis, predominantly during later stages of symbiosis. In situ hybridizations confirmed accumulation of mature miR399 in the phloem and in arbuscule-containing cortex cells of mycorrhizal roots. Moreover, a novel target of the miR399 family, named as MtPt8, was identified by the above mentioned degradome analysis. MtPt8 encodes a Pi-transporter exclusively transcribed in mycorrhizal roots and its promoter activity was restricted to arbuscule-containing cells. At a low Pi-status, MtPt8 transcript abundance inversely correlated with a mature miR399 expression pattern. Increased MtPt8 transcript levels were accompanied by elevated symbiotic Pi-uptake efficiency, indicating its impact on balancing plant and fungal Pi-acquisition. In conclusion, this study provides evidence for a direct link of the regulatory mechanisms of plant Pi-homeostasis and AM symbiosis at a cell-specific level. The results of this study, especially the interaction of miR399 and MtPt8 provide a fundamental step for future studies of plant-microbe-interactions with regard to agricultural and ecological aspects.
During the overall development of complex engineering systems different modeling notations are employed. For example, in the domain of automotive systems system engineering models are employed quite early to capture the requirements and basic structuring of the entire system, while software engineering models are used later on to describe the concrete software architecture. Each model helps in addressing the specific design issue with appropriate notations and at a suitable level of abstraction. However, when we step forward from system design to the software design, the engineers have to ensure that all decisions captured in the system design model are correctly transferred to the software engineering model. Even worse, when changes occur later on in either model, today the consistency has to be reestablished in a cumbersome manual step. In this report, we present in an extended version of [Holger Giese, Stefan Neumann, and Stephan Hildebrandt. Model Synchronization at Work: Keeping SysML and AUTOSAR Models Consistent. In Gregor Engels, Claus Lewerentz, Wilhelm Schäfer, Andy Schürr, and B. Westfechtel, editors, Graph Transformations and Model Driven Enginering - Essays Dedicated to Manfred Nagl on the Occasion of his 65th Birthday, volume 5765 of Lecture Notes in Computer Science, pages 555–579. Springer Berlin / Heidelberg, 2010.] how model synchronization and consistency rules can be applied to automate this task and ensure that the different models are kept consistent. We also introduce a general approach for model synchronization. Besides synchronization, the approach consists of tool adapters as well as consistency rules covering the overlap between the synchronized parts of a model and the rest. We present the model synchronization algorithm based on triple graph grammars in detail and further exemplify the general approach by means of a model synchronization solution between system engineering models in SysML and software engineering models in AUTOSAR which has been developed for an industrial partner. In the appendix as extension to [19] the meta-models and all TGG rules for the SysML to AUTOSAR model synchronization are documented.
Ziel der vorliegenden Arbeit war es, die Auswirkungen von Glucose- und Lipidtoxizität auf die Funktion der β-Zellen von Langerhans-Inseln in einem diabetesresistenten (B6.V-Lepob/ob, ob/ob) sowie diabetessuszeptiblen (New Zealand Obese, NZO) Mausmodell zu untersuchen. Es sollten molekulare Mechanismen identifiziert werden, die zum Untergang der β-Zellen in der NZO-Maus führen bzw. zum Schutz der β-Zellen der ob/ob-Maus beitragen. Zunächst wurde durch ein geeignetes diätetisches Regime in beiden Modellen durch kohlenhydratrestriktive Ernährung eine Adipositas(Lipidtoxizität) induziert und anschließend durch Fütterung einer kohlenhydrathaltigen Diät ein Zustand von Glucolipotoxizität erzeugt. Dieses Vorgehen erlaubte es, in der NZO-Maus in einem kurzen Zeitfenster eine Hyperglykämie sowie einen β-Zelluntergang durch Apoptose auszulösen. Im Vergleich dazu blieben ob/ob-Mäuse längerfristig normoglykämisch und wiesen keinen β-Zelluntergang auf. Die Ursache für den β-Zellverlust war die Inaktivierung des Insulin/IGF-1-Rezeptor-Signalwegs, wie durch Abnahme von phospho-AKT, phospho-FoxO1 sowie des β-zellspezifischen Transkriptionsfaktors PDX1 gezeigt wurde. Mit Ausnahme des Effekts einer Dephosphorylierung von FoxO1, konnten ob/ob-Mäuse diesen Signalweg aufrechterhalten und dadurch einen Verlust von β-Zellen abwenden. Die glucolipotoxischen Effekte wurden in vitro an isolierten Inseln beider Stämme und der β-Zelllinie MIN6 bestätigt und zeigten, dass ausschließlich die Kombination hoher Glucose und Palmitatkonzentrationen (Glucolipotoxizität) negative Auswirkungen auf die NZO-Inseln und MIN6-Zellen hatte, während ob/ob-Inseln davor geschützt blieben. Die Untersuchung isolierter Inseln ergab, dass beide Stämme unter glucolipotoxischen Bedingungen keine Steigerung der Insulinexpression aufweisen und sich bezüglich ihrer Glucose-stimulierten Insulinsekretion nicht unterscheiden. Mit Hilfe von Microarray- sowie immunhistologischen Untersuchungen wurde gezeigt, dass ausschließlich ob/ob-Mäuse nach Kohlenhydratfütterung eine kompensatorische transiente Induktion der β-Zellproliferation aufwiesen, die in einer nahezu Verdreifachung der Inselmasse nach 32 Tagen mündete. Die hier erzielten Ergebnisse lassen die Schlussfolgerung zu, dass der β-Zelluntergang der NZO-Maus auf eine Beeinträchtigung des Insulin/IGF-1-Rezeptor-Signalwegs sowie auf die Unfähigkeit zur β- Zellproliferation zurückgeführt werden kann. Umgekehrt ermöglichen der Erhalt des Insulin/IGF-1-Rezeptor-Signalwegs und die Induktion der β-Zellproliferation in der ob/ob-Maus den Schutz vor einer Hyperglykämie und einem Diabetes.
Theory of mRNA degradation
(2012)
One of the central themes of biology is to understand how individual cells achieve a high fidelity in gene expression. Each cell needs to ensure accurate protein levels for its proper functioning and its capability to proliferate. Therefore, complex regulatory mechanisms have evolved in order to render the expression of each gene dependent on the expression level of (all) other genes. Regulation can occur at different stages within the framework of the central dogma of molecular biology. One very effective and relatively direct mechanism concerns the regulation of the stability of mRNAs. All organisms have evolved diverse and powerful mechanisms to achieve this. In order to better comprehend the regulation in living cells, biochemists have studied specific degradation mechanisms in detail. In addition to that, modern high-throughput techniques allow to obtain quantitative data on a global scale by parallel analysis of the decay patterns of many different mRNAs from different genes. In previous studies, the interpretation of these mRNA decay experiments relied on a simple theoretical description based on an exponential decay. However, this does not account for the complexity of the responsible mechanisms and, as a consequence, the exponential decay is often not in agreement with the experimental decay patterns. We have developed an improved and more general theory of mRNA degradation which provides a general framework of mRNA expression and allows describing specific degradation mechanisms. We have made an attempt to provide detailed models for the regulation in different organisms. In the yeast S. cerevisiae, different degradation pathways are known to compete and furthermore most of them rely on the biochemical modification of mRNA molecules. In bacteria such as E. coli, degradation proceeds primarily endonucleolytically, i.e. it is governed by the initial cleavage within the coding region. In addition, it is often coupled to the level of maturity and the size of the polysome of an mRNA. Both for S. cerevisiae and E. coli, our descriptions lead to a considerable improvement of the interpretation of experimental data. The general outcome is that the degradation of mRNA must be described by an age-dependent degradation rate, which can be interpreted as a consequence of molecular aging of mRNAs. Within our theory, we find adequate ways to address this much debated topic from a theoretical perspective. The improvements of the understanding of mRNA degradation can be readily applied to further comprehend the mRNA expression under different internal or environmental conditions such as after the induction of transcription or stress application. Also, the role of mRNA decay can be assessed in the context of translation and protein synthesis. The ultimate goal in understanding gene regulation mediated by mRNA stability will be to identify the relevance and biological function of different mechanisms. Once more quantitative data will become available, our description allows to elaborate the role of each mechanism by devising a suitable model.
„Der kluge Spieler und die Ethik des Computerspielens“ ist eine moralphilosophische Analyse der sogenannten „Killerspiel-Diskussion“. Als Aufhänger dient der Amoklauf von Winnenden, in dessen Nachgang Diskussionen über Computerspiele, speziell solche mit gewalthaltigem Inhalt, aufkamen. In der öffentlichen Meinung wird häufig davon ausgegangen, dass das Spielen solcher Computerspiele auch in der Realität zu gewalttätigem Verhalten führt. Einige Politiker stellen diese Spiele sogar mit Kinderpornographie gleich. Mithilfe dreier bekannter normativer ethischer Theorien – dem Konsequentialismus (Mill), der Deontologie (Kant) und der Tugendethik (Aristoteles) – werden die wissenschaftlichen Argumente contra Computerspiele analysiert und bewertet. Die Computerspielgegner konzentrieren sich auf den Inhalt und die grafische Darstellung der Spiele (narratologischer Ansatz). Am Ende einer ausführlichen Darstellung ihrer Argumente stellt sich heraus, dass keines davon haltbar ist, wenn man die ethischen Theorien auf sie anwendet. Einzig der tugendethische Ansatz scheint Ansätze zu bieten, auf denen man aufbauen kann, allerdings nicht gegen, sondern für Spiele. Diesem wird im zweiten Teil des Buches nachgegangen. Miguel Sicarts Werk „The Ethics of Computer Games“ versucht, eine konkrete Ethik des Computerspiels zu entwickeln. In „Der kluge Spieler und die Ethik des Computerspielens“ wird Sicarts Werk zum ersten Mal im Deutschen vorgestellt, in seine einzelnen Bestandteile zerlegt und re-strukturiert. In Sicarts Ethik-Konzept für Computerspiele werden die Inhalte und die Grafik der Computerspiele komplett außen vor gelassen. Sein Ansatz ist ein ludologischer (spielwissenschaftlicher), der das Regelwerk und System der Spiele in den Vordergrund schiebt. Die drei Kernelemente seiner Theorie werden dargestellt: 1. das Computerspiel als moralisches Objekt, 2. der Computerspieler als moralisches Subjekt und 3. das Computerspielen als moralische Handlung. Diese drei Aspekte wirken zusammen und miteinander. Es entsteht eine Wechselwirkung zwischen dem Spiel und dem Spieler, in den auch das Nicht-Spieler-Subjekt einbezogen wird. Ein Mensch spielt ein Computerspiel und wird dadurch zum Spieler dieses Spiels. Er nimmt das Regelwerk auf und ruft seine vorhandene Erfahrung aus früheren Spielen ab, um somit ein möglichst gelungenes Spielen zu bewerkstelligen. Damit ist gemeint, dass er nicht schummelt, dass er keine Tricks anwendet, dass er in Mehrspielerspielen Fairplay walten lässt etc. Zusätzlich ist dieser Spieler aber nicht nur ein Spieler, sondern er befindet sich in sozialen Kontexten, hat Werte und Ansichten und diese fließen in sein Spieler-Repertoire ein. In solch einer Wechselwirkung verhält sich der Spieler moralisch korrekt, wenn er dem Spiel zu dem verhilft, was es ist: eine Erfahrung. Das Spiel ist nämlich zweierlei: 1. Das Objekt, also eine CD in einer Hülle mit einer Spielanleitung etc. 2. Das Spiel, das am Bildschirm tatsächlich erfahren wird, indem es gespielt wird. Sieht das Spiel eine gewalthaltige Lösung vor, ist es in Sicarts Ethik des Computerspiels moralisch richtig, diese zu vollziehen. Was Sicart mit seiner Theorie letztendlich zeichnet, ist das Bild eines „klugen Spielers“. Der dritte Teil des Buches analysiert Sicarts Ethik des Computerspiels und zeigt mithilfe eines praktischen Beispiels seine Schwachstelle auf. Während die Computerspielgegner sich ausschließlich auf den Inhalt und die Grafik konzentrieren, ignoriert Sicart sie gänzlich. Somit stellen beide Ansätze Extrempositionen dar. Sicarts Ansatz wird in eine „Ethik des Computerspielens“ uminterpretiert und anschließend auf die Diskussionen rund um den Amoklauf von Winnenden angewendet. Dadurch können die Ausgangsargumente gegen Killerspiele endgültig wissenschaftlich widerlegt werden. Im letzten Teil des Buches wird die Brücke zum tugendethischen Ansatz des Aristoteles geschlagen: der gemäßigte Mittelweg führt zu einem guten Leben. Eine komplette Computerspielethik muss beide Aspekte beinhalten: den grafisch-inhaltlichen („narratologischen“) und den spieltechnischen („ludologischen“) Ansatz. Nur im Zusammenspiel beider kann eine umfassende Computerspielethik gesucht und gefunden werden. Hierzu wird ein Grundgerüst vorgeschlagen sowie zwei Ideen, welche für weitere Forschung auf dem Gebiet verwendet werden können.
This paper develops a spatial model to analyze the stability of a market sharing agreement between two firms. We find that the stability of the cartel depends on the relative market size of each firm. Collusion is not attractive for firms with a small home market, but the incentive for collusion increases when the firm’s home market is getting larger relative to the home market of the competitor. The highest stability of a cartel and additionally the highest social welfare is found when regions are symmetric. Further we can show that a monetary transfer can stabilize the market sharing agreement.
Climate is the principal driving force of hydrological extremes like floods and attributing generating mechanisms is an essential prerequisite for understanding past, present, and future flood variability. Successively enhanced radiative forcing under global warming enhances atmospheric water-holding capacity and is expected to increase the likelihood of strong floods. In addition, natural climate variability affects the frequency and magnitude of these events on annual to millennial time-scales. Particularly in the mid-latitudes of the Northern Hemisphere, correlations between meteorological variables and hydrological indices suggest significant effects of changing climate boundary conditions on floods. To date, however, understanding of flood responses to changing climate boundary conditions is limited due to the scarcity of hydrological data in space and time. Exploring paleoclimate archives like annually laminated (varved) lake sediments allows to fill this gap in knowledge offering precise dated time-series of flood variability for millennia. During river floods, detrital catchment material is eroded and transported in suspension by fluid turbulence into downstream lakes. In the water body the transport capacity of the inflowing turbidity current successively diminishes leading to the deposition of detrital layers on the lake floor. Intercalated into annual laminations these detrital layers can be dated down to seasonal resolution. Microfacies analyses and X-ray fluorescence scanning (µ-XRF) at 200 µm resolution were conducted on the varved Mid- to Late Holocene interval of two sediment profiles from pre-alpine Lake Ammersee (southern Germany) located in a proximal (AS10prox) and distal (AS10dist) position towards the main tributary River Ammer. To shed light on sediment distribution within the lake, particular emphasis was (1) the detection of intercalated detrital layers and their micro-sedimentological features, and (2) intra-basin correlation of these deposits. Detrital layers were dated down to the season by microscopic varve counting and determination of the microstratigraphic position within a varve. The resulting chronology is verified by accelerator mass spectrometry (AMS) 14C dating of 14 terrestrial plant macrofossils. Since ~5500 varve years before present (vyr BP), in total 1573 detrital layers were detected in either one or both of the investigated sediment profiles. Based on their microfacies, geochemistry, and proximal-distal deposition pattern, detrital layers were interpreted as River Ammer flood deposits. Calibration of the flood layer record using instrumental daily River Ammer runoff data from AD 1926 to 1999 proves the flood layer succession to represent a significant time-series of major River Ammer floods in spring and summer, the flood season in the Ammersee region. Flood layer frequency trends are in agreement with decadal variations of the East Atlantic-Western Russia (EA-WR) atmospheric pattern back to 200 yr BP (end of the used atmospheric data) and solar activity back to 5500 vyr BP. Enhanced flood frequency corresponds to the negative EA-WR phase and reduced solar activity. These common links point to a central role of varying large-scale atmospheric circulation over Europe for flood frequency in the Ammersee region and suggest that these atmospheric variations, in turn, are likely modified by solar variability during the past 5500 years. Furthermore, the flood layer record indicates three shifts in mean layer thickness and frequency of different manifestation in both sediment profiles at ~5500, ~2800, and ~500 vyr BP. Combining information from both sediment profiles enabled to interpret these shifts in terms of stepwise increases in mean flood intensity. Likely triggers of these shifts are gradual reduction of Northern Hemisphere orbital summer forcing and long-term solar activity minima. Hypothesized atmospheric response to this forcing is hemispheric cooling that enhances equator-to-pole temperature gradients and potential energy in the troposphere. This energy is transferred into stronger westerly cyclones, more extreme precipitation, and intensified floods at Lake Ammersee. Interpretation of flood layer frequency and thickness data in combination with reanalysis models and time-series analysis allowed to reconstruct the flood history and to decipher flood triggering climate mechanisms in the Ammersee region throughout the past 5500 years. Flood frequency and intensity are not stationary, but influenced by multi-causal climate forcing of large-scale atmospheric modes on time-scales from years to millennia. These results challenge future projections that propose an increase in floods when Earth warms based only on the assumption of an enhanced hydrological cycle.
The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert. This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution. We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains. Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs.
The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced.
A discrete analogue of the Witten Laplacian on the n-dimensional integer lattice is considered. After rescaling of the operator and the lattice size we analyze the tunnel effect between different wells, providing sharp asymptotics of the low-lying spectrum. Our proof, inspired by work of B. Helffer, M. Klein and F. Nier in continuous setting, is based on the construction of a discrete Witten complex and a semiclassical analysis of the corresponding discrete Witten Laplacian on 1-forms. The result can be reformulated in terms of metastable Markov processes on the lattice.
Assuming that liquid iron alloy from the outer core interacts with the solid silicate-rich lower mantle the influence on the core-mantle reflected phase PcP is studied. If the core-mantle boundary is not a sharp discontinuity, this becomes apparent in the waveform and amplitude of PcP. Iron-silicate mixing would lead to regions of partial melting with higher density which in turn reduces the velocity of seismic waves. On the basis of the calculation and interpretation of short-period synthetic seismograms, using the reflectivity and Gauss Beam method, a model space is evaluated for these ultra-low velocity zones (ULVZs). The aim of this thesis is to analyse the behaviour of PcP between 10° and 40° source distance for such models using different velocity and density configurations. Furthermore, the resolution limits of seismic data are discussed. The influence of the assumed layer thickness, dominant source frequency and ULVZ topography are analysed. The Gräfenberg and NORSAR arrays are then used to investigate PcP from deep earthquakes and nuclear explosions. The seismic resolution of an ULVZ is limited both for velocity and density contrasts and layer thicknesses. Even a very thin global core-mantle transition zone (CMTZ), rather than a discrete boundary and also with strong impedance contrasts, seems possible: If no precursor is observable but the PcP_model /PcP_smooth amplitude reduction amounts to more than 10%, a very thin ULVZ of 5 km with a first-order discontinuity may exist. Otherwise, if amplitude reductions of less than 10% are obtained, this could indicate either a moderate, thin ULVZ or a gradient mantle-side CMTZ. Synthetic computations reveal notable amplitude variations as function of the distance and the impedance contrasts. Thereby a primary density effect in the very steep-angle range and a pronounced velocity dependency in the wide-angle region can be predicted. In view of the modelled findings, there is evidence for a 10 to 13.5 km thick ULVZ 600 km south-eastern of Moscow with a NW-SE extension of about 450 km. Here a single specific assumption about the velocity and density anomaly is not possible. This is in agreement with the synthetic results in which several models create similar amplitude-waveform characteristics. For example, a ULVZ model with contrasts of -5% VP , -15% VS and +5% density explain the measured PcP amplitudes. Moreover, below SW Finland and NNW of the Caspian Sea a CMB topography can be assumed. The amplitude measurements indicate a wavelength of 200 km and a height of 1 km topography, previously also shown in the study by Kampfmann and Müller (1989). Better constraints might be provided by a joined analysis of seismological data, mineralogical experiments and geodynamic modelling.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
The Sun is surrounded by a 10^6 K hot atmosphere, the corona. The corona and the solar wind are fully ionized, and therefore in the plasma state. Magnetic fields play an important role in a plasma, since they bind electrically charged particles to their field lines. EUV spectroscopes, like the SUMER instrument on-board the SOHO spacecraft, reveal a preferred heating of coronal ions and strong temperature anisotropies. Velocity distributions of electrons can be measured directly in the solar wind, e.g. with the 3DPlasma instrument on-board the WIND satellite. They show a thermal core, an anisotropic suprathermal halo, and an anti-solar, magnetic-field-aligned, beam or "strahl". For an understanding of the physical processes in the corona, an adequate description of the plasma is needed. Magnetohydrodynamics (MHD) treats the plasma simply as an electrically conductive fluid. Multi-fluid models consider e.g. protons and electrons as separate fluids. They enable a description of many macroscopic plasma processes. However, fluid models are based on the assumption of a plasma near thermodynamic equilibrium. But the solar corona is far away from this. Furthermore, fluid models cannot describe processes like the interaction with electromagnetic waves on a microscopic scale. Kinetic models, which are based on particle velocity distributions, do not show these limitations, and are therefore well-suited for an explanation of the observations listed above. For the simplest kinetic models, the mirror force in the interplanetary magnetic field focuses solar wind electrons into an extremely narrow beam, which is contradicted by observations. Therefore, a scattering mechanism must exist that counteracts the mirror force. In this thesis, a kinetic model for electrons in the solar corona and wind is presented that provides electron scattering by resonant interaction with whistler waves. The kinetic model reproduces the observed components of solar wind electron distributions, i.e. core, halo, and a "strahl" with finite width. But the model is not only applicable on the quiet Sun. The propagation of energetic electrons from a solar flare is studied, and it is found that scattering in the direction of propagation and energy diffusion influence the arrival times of flare electrons at Earth approximately to the same degree. In the corona, the interaction of electrons with whistler waves does not only lead to scattering, but also to the formation of a suprathermal halo, as it is observed in interplanetary space. This effect is studied both for the solar wind as well as the closed volume of a coronal magnetic loop. The result is of fundamental importance for solar-stellar relations. The quiet solar corona always produces suprathermal electrons. This process is closely related to coronal heating, and can therefore be expected in any hot stellar corona. In the second part of this thesis it is detailed how to calculate growth or damping rates of plasma waves from electron velocity distributions. The emission and propagation of electron cyclotron waves in the quiet solar corona, and that of whistler waves during solar flares, is studied. The latter can be observed as so-called fiber bursts in dynamic radio spectra, and the results are in good agreement with observed bursts.
This study is based on an editorial report, which was presented at the 2009 working conference »Alexander von Humboldt and the Hemisphere« at Vanderbilt University (Nashville, TN). It demonstrates the textual genesis of Humboldt’s writings on Cuba through examples, which were obtained from a detailed text comparison of the three existing »original« versions of Humboldt’s Essai politique sur l’île de Cuba. The collation was part of a larger strategy to regain philological ground for the »Humboldt in English« (HiE) project. Since 2007 and funded with grants from the National Endowment for the Humanities, the Alexander von Humboldt-Foundation, and the Gerda Henkel Foundation, the US-German research team behind HiE has been working on new and unabridged translations and critical editions of three of Humboldt’s most significant texts from his American oeuvre.1 The following observations will outline the most important results of this collation effort as a complementary contribution to the recent release of the HiE project’s first volume, The Political Essay on the Island of Cuba (Chicago University Press 2011), edited by Vera M. Kutzinski and Ottmar Ette.
Die Restenose stellt ein zentrales Problem der interventionellen Kardiologie dar und ist häufigste Komplikation nach perkutanen Angioplastieverfahren. Hauptursache dieser Wiederverengung des Gefäßes ist die Bildung einer Neointima durch die Proliferation transdifferenzierter vaskulärer glatter Muskelzellen und die Sekretion extrazellulärer Matrix. Die Entstehung reaktiver Sauerstoffspezies (ROS) und die Entzündungsreaktion nach der Gefäßverletzung werden als frühe, die Neointimabildung induzierende Prozesse diskutiert. Im Rahmen dieser Arbeit wurden mehrere Projekte bearbeitet, die Aufschluss über die während der Neointimabildung statt findenden Prozesse geben sollen. Mit Hilfe eines Verletzungsmodells der murinen Femoralarterie wurde der Einfluss der Entzündung und der ROS-Bildung auf die Neointimabildung in der Maus untersucht. Die Behandlung mit dem mitochondrialen Superoxiddismutase-Mimetikum MitoTEMPO verminderte die Bildung der Neointima besser, als die Behandlung mit dem globalen ROS-Fänger N-Acetylcystein. Die stärkste Hemmung der Neointimabildung wurde jedoch durch die Immunsuppression mit Rapamycin erreicht. Interferon-γ (INFγ) ist ein wichtiges Zytokin der Th1-Immunantwort, das in Folge der Gefäßverletzung freigesetzt wird und die proinflammatorischen Chemokine CXCL9 (MIG, Monokine Induced by INF), CXCL10 (IP-10, INF inducible Protein of 10 kDa) und CXCL11 (I-TAC, Interferon inducible T cell-Chemoattractant) induziert. CXCL9, CXCL10 und CXCL11 sind Liganden des CXC-Chemokinrezeptors 3 (CXCR3) und locken chemotaktisch CXCR3 positive Entzündungszellen zum Ort der Gefäßverletzung. Daher wurde die spezielle Bedeutung des Chemokins CXCL10 in der Restenose untersucht. Dazu wurden CXCL10-defiziente Mäuse dem Femoralisverletzungsmodell unterzogen und die Gefäße nach 14 Tagen morphometrisch und immunhistologisch untersucht. CXCL10-Defizienz führte in Mäusen zu einer verminderten Neointimabildung, die mit einer verringerten Inflammation, Apoptose und Proliferation im verletzten Gefäß korrelierte. Neben der Inflammation beeinflusst aber auch die Reendothelialisierung der verletzten Gefäßwand die Restenose. Interessanterweise war im Vergleich zu Wildtyp-Mäusen in den CXCL10-Knockout-Mäusen auch die Reendothelialisierung erheblich verbessert. Offensichtlich ist das CXCR3-Chemokinsystem also in völlig unterschiedliche biologische Prozesse involviert und beeinflusst nicht nur die Bildung der Neoimtima durch die Förderung der Entzündung, sondern auch die Unterdrückung der Reendothelialisierung der verletzten Gefäßwand. Tatsächlich wird der CXCR3 nicht nur auf Entzündungszellen, sondern auch auf Endothelzellen exprimiert. Zur separaten Untersuchung der Rolle des CXCR3 in der Inflammation und der Reendothelialisierung wurde im Rahmen dieser Arbeit damit begonnen konditionelle CXCR3-Knockout-Mäuse zu generieren, in denen der CXCR3 entweder in Entzündungszellen oder in Endothelzellen ausgeschaltet ist. Zum besseren Verständnis der molekularen Mechanismen, mit denen der CXCR3 seine Funktionen vermittelt, wurde zudem untersucht ob dieser mit anderen G-Protein-gekoppelten Rezeptoren (GPCR) interagiert. Die Analyse von Coimmunpräzipitaten deutet auf eine Homodimerisierung der beiden CXCR3 Splicevarianten CXCR3A und CXCR3B, sowie auf die Heterodimerbildung von CXCR3A und CXCR3B mit sich, sowie jeweils mit CCR2, CCR3, CCR5 und den Opioidrezeptoren MOR und KOR hin. Die getestete Methode des Fluoreszenz-Resonanz-Energietransfers (FRET) erwies sich jedoch als ungeeignet zur Untersuchung von CXCR3, da dieser in HEK293T-Zellen nicht korrekt transient exprimiert wurde. Insgesamt deuten die Ergebnisse dieser Arbeit darauf hin, dass das CXCR3-Chemokinsystem eine zentrale Rolle in unterschiedlichen, die Neointimabildung beeinflussenden Prozessen spielt. Damit könnten der CXCR3 und insbesondere das Chemokin CXCL10 interessante Zielmoleküle in der Entwicklung neuer verbesserter Therapien zur Verhinderung der Restenose darstellen.
Flux-P
(2012)
Quantitative knowledge of intracellular fluxes in metabolic networks is invaluable for inferring metabolic system behavior and the design principles of biological systems. However, intracellular reaction rates can not often be calculated directly but have to be estimated; for instance, via 13C-based metabolic flux analysis, a model-based interpretation of stable carbon isotope patterns in intermediates of metabolism. Existing software such as FiatFlux, OpenFLUX or 13CFLUX supports experts in this complex analysis, but requires several steps that have to be carried out manually, hence restricting the use of this software for data interpretation to a rather small number of experiments. In this paper, we present Flux-P as an approach to automate and standardize 13C-based metabolic flux analysis, using the Bio-jETI workflow framework. Exemplarily based on the FiatFlux software, it demonstrates how services can be created that carry out the different analysis steps autonomously and how these can subsequently be assembled into software workflows that perform automated, high-throughput intracellular flux analysis of high quality and reproducibility. Besides significant acceleration and standardization of the data analysis, the agile workflow-based realization supports flexible changes of the analysis workflows on the user level, making it easy to perform custom analyses.
This study follows the debate in comparative public administration research on the role of advisory arrangements in central governments. The aim of this study is to explain the mechanisms by which these actors gain their alleged role in government decision-making. Hence, it analyses advisory arrangements that are proactively involved in executive decision-making and may compete with the permanent bureaucracy by offering policy advice to political executives. The study argues that these advisory arrangements influence government policy-making by "institutional politics", i.e. by shaping the institutional underpinnings to govern or rather the "rules of the executive game" in order to strengthen their own position or that of their clients. The theoretical argument of this study follows the neo-institutionalist turn in organization theory and defines institutional politics as gradual institutionalization processes between institutions and organizational actors. It applies a broader definition of institutions as sets of regulative, normative and cognitive pillars. Following the "power-distributional approach" such gradual institutionalization processes are influenced by structure-oriented characteristics, i.e. the nature of the objects of institutional politics, in particular the freedom of interpretation in their application, as well as the distinct constraints of the institutional context. In addition, institutional politics are influenced by agency-oriented characteristics, i.e. the ambitions of actors to act as "would-be change agents". These two explanatory dimensions result in four ideal-typical mechanisms of institutional politics: layering, displacement, drift, and conversion, which correspond to four ideal-types of would-be change agents. The study examines the ambitions of advisory arrangements in institutional politics in an exploratory manner, the relevance of the institutional context is analyzed via expectation hypotheses on the effects of four institutional context features that are regarded as relevant in the scholarly debate: (1) the party composition of governments, (2) the structuring principles in cabinet, (3) the administrative tradition, and (4) the formal politicization of the ministerial bureaucracy. The study follows a "most similar systems design" and conducts qualitative case studies on the role of advisory arrangements at the center of German and British governments, i.e. the Prime Minister’s Office and the Ministry of Finance, for a longer period (1969/1970-2005). Three time periods are scrutinized per country; the British case studies examine the role of advisory arrangements at the Cabinet Office, the Prime Minister's Office, and the Ministry of Finance under Prime Ministers Heath (1970-74), Thatcher (1979-87) and Blair (1997-2005). The German case studies study the role of advisory arrangements at the Federal Chancellery and the Federal Ministry of Finance during the Brandt government (1969-74), the Kohl government (1982-1987) and the Schröder government (1998-2005). For the empirical analysis, the results of a document analysis and the findings of 75 semi-structured expert interviews have been triangulated. The comparative analysis reveals different patterns of institutional politics. The German advisory arrangements engaged initially in displacement but turned soon towards layering and drift, i.e. after an initial displacement of the pre-existing institutional underpinnings to govern they laid increasingly new elements onto existing ones and took the non-deliberative decision to neglect the adaption of existing rules of the executive game towards changing environmental demands. The British advisory arrangements were mostly involved in displacement and conversion, despite occasional layering, i.e. they displaced the pre-existing institutional underpinnings to govern with new rules of the executive game and transformed and realigned them, sometimes also layering new elements onto pre-existing ones. The structure- and agency-oriented characteristics explain these patterns of institutional politics. First, the study shows that the institutional context limits the institutional politics in Germany and facilitates the institutional politics in the UK. Second, the freedom of interpreting the application of institutional targets is relevant and could be observed via the different ambitions of advisory arrangements across countries and over time, confirming, third, that the interests of such would-be change agents are likewise important to understand the patterns of institutional politics. The study concludes that the role of advisory arrangements in government policy-making rests not only upon their policy-related, party-political or media-advisory role for political executives, but especially upon their activities in institutional politics, resulting in distinct institutional constraints on all actors in government policy-making – including their own role in these processes.
The distinctness of, and overlap between, pea genotypes held in several Pisum germplasm collections has been used to determine their relatedness and to test previous ideas about the genetic diversity of Pisum. Our characterisation of genetic diversity among 4,538 Pisum accessions held in 7 European Genebanks has identified sources of novel genetic variation, and both reinforces and refines previous interpretations of the overall structure of genetic diversity in Pisum. Molecular marker analysis was based upon the presence/absence of polymorphism of retrotransposon insertions scored by a high-throughput microarray and SSAP approaches. We conclude that the diversity of Pisum constitutes a broad continuum, with graded differentiation into sub-populations which display various degrees of distinctness. The most distinct genetic groups correspond to the named taxa while the cultivars and landraces of Pisum sativum can be divided into two broad types, one of which is strongly enriched for modern cultivars. The addition of germplasm sets from six European Genebanks, chosen to represent high diversity, to a single collection previously studied with these markers resulted in modest additions to the overall diversity observed, suggesting that the great majority of the total genetic diversity collected for the Pisum genus has now been described. Two interesting sources of novel genetic variation have been identified. Finally, we have proposed reference sets of core accessions with a range of sample sizes to represent Pisum diversity for the future study and exploitation by researchers and breeders.
This article examines two so-far-understudied verb doubling constructions in Mandarin Chinese, viz., verb doubling clefts and verb doubling lian…dou. We show that these constructions have the same internal syntax as regular clefts and lian…dou sentences, the doubling effect being epiphenomenal; therefore, we classify them as subtypes of the general cleft and lian…dou constructions, respectively, rather than as independent constructions. Additionally, we also show that, as in many other languages with comparable constructions, the two instances of the verb are part of a single movement chain, which has the peculiarity of allowing Spell-Out of more than one link.
Уголовно-процессуальный кодекс ФРГ (УПК ФРГ) является основным законодательным актом, регулирующим немецкий уголовный процесс. В данное издание входят трансформация УПК ФРГ на русский язык и юридические комментарии, призванные облегчить читателю правильное языковое понимание и правовое толкование текста немецкого уголовно-процессуального закона. Трансформация текста закона основана на принципах функционального перевода, подразумевающего точную передачу смысла закона, в соответствии с научным толкованием юридических терминов и правовых институтов, объяснённым в комментариях. Помимо толкования понятий, в комментариях кратко представлены актуальные дискуссии в доктрине и судебной практике в отношении отдельных норм, а также последние изменения и дополнения, внесённые в закон, и краткая информация о содержании других законодательных актов, связанных с положениями УПК ФРГ. Вступительная статья содержит обзор уголовного процесса ФРГ и представляет собой введение в немецкое уголовно-процессуальное право. Книга адресована не только юристам-практикам и правоведам, но и всем тем, кто в силу профессиональной деятельности или в процессе обучения интересуется уголовным процессом ФРГ. Текст закона представлен в редакции от 21 июля 2012 года.
Background
High blood glucose and diabetes are amongst the conditions causing the greatest losses in years of healthy life worldwide. Therefore, numerous studies aim to identify reliable risk markers for development of impaired glucose metabolism and type 2 diabetes. However, the molecular basis of impaired glucose metabolism is so far insufficiently understood. The development of so called 'omics' approaches in the recent years promises to identify molecular markers and to further understand the molecular basis of impaired glucose metabolism and type 2 diabetes. Although univariate statistical approaches are often applied, we demonstrate here that the application of multivariate statistical approaches is highly recommended to fully capture the complexity of data gained using high-throughput methods.
Methods
We took blood plasma samples from 172 subjects who participated in the prospective Metabolic Syndrome Berlin Potsdam follow-up study (MESY-BEPO Follow-up). We analysed these samples using Gas Chromatography coupled with Mass Spectrometry (GC-MS), and measured 286 metabolites. Furthermore, fasting glucose levels were measured using standard methods at baseline, and after an average of six years. We did correlation analysis and built linear regression models as well as Random Forest regression models to identify metabolites that predict the development of fasting glucose in our cohort.
Results
We found a metabolic pattern consisting of nine metabolites that predicted fasting glucose development with an accuracy of 0.47 in tenfold cross-validation using Random Forest regression. We also showed that adding established risk markers did not improve the model accuracy. However, external validation is eventually desirable. Although not all metabolites belonging to the final pattern are identified yet, the pattern directs attention to amino acid metabolism, energy metabolism and redox homeostasis.
Conclusions
We demonstrate that metabolites identified using a high-throughput method (GC-MS) perform well in predicting the development of fasting plasma glucose over several years. Notably, not single, but a complex pattern of metabolites propels the prediction and therefore reflects the complexity of the underlying molecular mechanisms. This result could only be captured by application of multivariate statistical approaches. Therefore, we highly recommend the usage of statistical methods that seize the complexity of the information given by high-throughput methods.
China und Indien
(2012)
Der Artikel analysiert die neue Rolle aufsteigender Schwellenländer
in den internationalen Klimaverhandlungen am Beispiel Chinas und
Indiens. Die Ablehnung verbindlicher Reduktionsziele für Treibhausgase
wurde in Kopenhagen als Blockadepolitik beider Länder gewertet.
China und Indien können sich in ihrer Position behaupten, da ihr
gestiegenes Gewicht in der multipolaren Weltordnung und die Untätigkeit
führender Industrieländer ihre Verhandlungsposition stärkt. Die
Autorin diskutiert Kooperationsmöglichkeiten auf subnationaler Ebene,
die die Blockadeposition nationaler Regierungen umgehen können.
Mineral chemistry and thermobarometry of the staurolite-chloritoid schists from Poshtuk, NW Iran
(2012)
The Poshtuk metapelitic rocks in northwestern Iran underwent two main phases of regional and contact metamorphism. Microstructures, textural features and field relations indicate that these rocks underwent a polymetamorphic history. The dominant metamorphic assemblage of the metapelites is garnet, staurolite, chloritoid, chlorite, muscovite and quartz, which grew mainly syntectonically during the later contact metamorphic event. Peak metamorphic conditions of this event took place at 580 ◦ C and ∼ 3–4 kbar, indicating that this event occurred under high-temperature and low-pressure conditions (HT/LP metamorphism), which reflects the high heat flow in this part of the crust. This event is mainly controlled by advective heat input through magmatic intrusions into all levels of the crust. These extensive Eocene metamorphic and magmatic activities can be associated with the early Alpine Orogeny, which resulted in this area from the convergence between the Arabian and Eurasian plates, and the Cenozoic closure of the Tethys oceanic tract(s).
Tensorial spacetime geometries carrying predictive, interpretable and quantizable matter dynamics
(2012)
Which tensor fields G on a smooth manifold M can serve as a spacetime structure? In the first part of this thesis, it is found that only a severely restricted class of tensor fields can provide classical spacetime geometries, namely those that can carry predictive, interpretable and quantizable matter dynamics. The obvious dependence of this characterization of admissible tensorial spacetime geometries on specific matter is not a weakness, but rather presents an insight: it was Maxwell theory that justified Einstein to promote Lorentzian manifolds to the status of a spacetime geometry. Any matter that does not mimick the structure of Maxwell theory, will force us to choose another geometry on which the matter dynamics of interest are predictive, interpretable and quantizable. These three physical conditions on matter impose three corresponding algebraic conditions on the totally symmetric contravariant coefficient tensor field P that determines the principal symbol of the matter field equations in terms of the geometric tensor G: the tensor field P must be hyperbolic, time-orientable and energy-distinguishing. Remarkably, these physically necessary conditions on the geometry are mathematically already sufficient to realize all kinematical constructions familiar from Lorentzian geometry, for precisely the same structural reasons. This we were able to show employing a subtle interplay of convex analysis, the theory of partial differential equations and real algebraic geometry. In the second part of this thesis, we then explore general properties of any hyperbolic, time-orientable and energy-distinguishing tensorial geometry. Physically most important are the construction of freely falling non-rotating laboratories, the appearance of admissible modified dispersion relations to particular observers, and the identification of a mechanism that explains why massive particles that are faster than some massless particles can radiate off energy until they are slower than all massless particles in any hyperbolic, time-orientable and energy-distinguishing geometry. In the third part of the thesis, we explore how tensorial spacetime geometries fare when one wants to quantize particles and fields on them. This study is motivated, in part, in order to provide the tools to calculate the rate at which superluminal particles radiate off energy to become infraluminal, as explained above. Remarkably, it is again the three geometric conditions of hyperbolicity, time-orientability and energy-distinguishability that allow the quantization of general linear electrodynamics on an area metric spacetime and the quantization of massive point particles obeying any admissible dispersion relation. We explore the issue of field equations of all possible derivative order in rather systematic fashion, and prove a practically most useful theorem that determines Dirac algebras allowing the reduction of derivative orders. The final part of the thesis presents the sketch of a truly remarkable result that was obtained building on the work of the present thesis. Particularly based on the subtle duality maps between momenta and velocities in general tensorial spacetimes, it could be shown that gravitational dynamics for hyperbolic, time-orientable and energy distinguishable geometries need not be postulated, but the formidable physical problem of their construction can be reduced to a mere mathematical task: the solution of a system of homogeneous linear partial differential equations. This far-reaching physical result on modified gravity theories is a direct, but difficult to derive, outcome of the findings in the present thesis. Throughout the thesis, the abstract theory is illustrated through instructive examples.
Der boomende Wirtschaftsriese China erfährt weltweit immer mehr Aufmerksamkeit von Politik, Wirtschaft, Wissenschaft und Öffentlichkeit. Gleichzeitig werden aber auch innere soziale Probleme und die großen regionalen Disparitäten des Landes angesprochen. Auch Berichte über die Situation der Wanderarbeiter in den Großstädten des Landes häufen sich. Obwohl sich die Wissenschaft ebenfalls dieses Themas angenommen hat, mangelt es noch an Untersuchungen darüber, insbesondere an solchen, die eingehend und systematisch mit empirischen Erhebungen „vor Ort“ dieses Phänomen studieren. In diese Lücke stößt die Dissertation von Ling He. In ihrem Mittelpunkt steht das Alltagsleben der Arbeitsmigranten in Peking. Dabei werden behandelt: die Migrationsmotive, die strukturellen und individuellen Rahmenbedingungen für die Arbeitsmigranten und ihre Familien, die Arbeits- und Lebensbedingungen, die Bildung finanzieller Ressourcen sowie auch die Konstruktion sozialer Netzwerke und die Integration der Migranten in Peking. Außerdem geht die Dissertation ein auf die Vorteile, die für die etwa 17 Millionen Einwohner zählende Stadt durch die Beschäftigung der etwa 3 Millionen Arbeitsmigranten geschaffen werden, und sie weist auf die sozialen und ökonomischen Probleme hin, die im Zusammenhang mit der Arbeitsmigration gelöst werden müssten.
Die Krankenhäuser Ostdeutschlands in Transition : eine registerbasierte Analyse amtlicher Paneldaten
(2012)
Vorliegende Arbeit untersucht – nach intensiver Datenanalyse und -klärung – die ersten eineinhalb Jahrzehnte Transition in Ostdeutschland ökonometrisch. Im Mittelpunkt stehen dabei die Interaktionen zwischen der allgemeinen Wirtschaft und den Krankenhäusern sowie – auf Basis der Hauptdiagnose – den in Krankenhäusern behandelten Krankheiten. Verschiedene, in den politischen Diskussionen zur Effizienz der Krankenhäuser übliche Indikatoren werden verglichen und auf ihre Eignung zur adäquaten Beschreibung von Krankenhauskosten und -leistungen geprüft. Durch Einbeziehen der Daten aus Rheinland-Pfalz wird herausgearbeitet, welche der Veränderungen in Ostdeutschland transitionsbezogen sind und ob und wie sich die transitionsbezogenen von eher transitionsunabhängigen Veränderungen trennen lassen. Dazu werden den Daten – jährlich erhobenen Angaben zu einem jeden Krankenhaus bzw. jedem Kreis des Untersuchungsgebietes – Paneldatenmodelle angepasst. Ergänzt um deskriptive Statistiken, Graphen und Choroplethenkarten sind diese Modelle Grundlage einer wirtschaftswissenschaftlichen Interpretation der Veränderungen zwischen 1992 und 2005. Größten Einfluss auf die Krankenhäuser in Ost- wie in Westdeutschland haben die sich verändernden Rahmenbedingungen, zuvörderst die etappenweise Ablösung einer budgetbasierten Krankenhausfinanzierung durch eine, die auf Fallpauschalen für die verschieden schweren Krankenhausfälle (per diagnose related groups – DRG) basiert. Bereits die um das Jahr 2000 unter den Ärzten und Krankenhausmanagern beginnende Diskussion um die Fallpauschalen führt zu erheblichen Veränderungen bei der ärztlichen Diagnosestellung (bzw. -kodierung), diese Veränderungen werden diskutiert. Vor allem den Besonderheiten der Finanzierung des deutschen Gesundheitswesens ist es geschuldet, dass die Transition für die ostdeutschen Krankenhäuser sehr schnell zu einem den westlichen Krankenhäusern ähnlichen Leistungs- und Kostenniveau führt und dass mikroökonomische Unterschiede in Wirtschafts- und Sozialparametern kaum Einfluss auf die Krankenhäuser haben.
This thesis deals with two theories of international trade: the theory of comparative advantage, which is connected to the name David Ricardo and is dominating current trade theory, and Adam Smith’s theory of absolute advantage. Both theories are compared and their assumptions are scrutinised. The former theory is rejected on theoretical and empirical grounds in favour of the latter. On the basis of the theory of absolute advantage, developments of free international trade are examined, whereby the focus is on trade between industrial and underdeveloped countries. The main conclusions are that trade patterns are determined by absolute production cost advantages and that the gap between developed and poor countries is not reduced but rather increased by free trade.
This thesis aims at a better mechanistic understanding of animal communities. Therefore, an allometry- and individual-based model has been developed which was used to simulate mammal and bird communities in heterogeneous landscapes, and to to better understand their response to landscape changes (habitat loss and fragmentation).
In the limit we analyze the generators of families of reversible jump processes in the n-dimensional space associated with a class of symmetric non-local Dirichlet forms and show exponential decay of the eigenfunctions. The exponential rate function is a Finsler distance, given as solution of certain eikonal equation. Fine results are sensitive to the rate functions being twice differentiable or just Lipschitz. Our estimates are similar to the semiclassical Agmon estimates for differential operators of second order. They generalize and strengthen previous results on the lattice.
Inhalt: - Verschiedene Dimensionen der Nachhaltigkeit - Das Gemeinsame der verschiedenen Dimensionen - Das Streben nach einem besseren Verständnis der Welt - Nachhaltigkeit - Ein allgemeines Modell der Nachhaltigkeit: Das »Existenzraum-Modell« - Das Metasystem Erde - Die Zukunftsfähigkeit der Gesellschaft
F2C2
(2012)
Background: Flux coupling analysis (FCA) has become a useful tool in the constraint-based analysis of genome-scale metabolic networks. FCA allows detecting dependencies between reaction fluxes of metabolic networks at steady-state. On the one hand, this can help in the curation of reconstructed metabolic networks by verifying whether the coupling between reactions is in agreement with the experimental findings. On the other hand, FCA can aid in defining intervention strategies to knock out target reactions.
Results: We present a new method F2C2 for FCA, which is orders of magnitude faster than previous approaches. As a consequence, FCA of genome-scale metabolic networks can now be performed in a routine manner.
Conclusions: We propose F2C2 as a fast tool for the computation of flux coupling in genome-scale metabolic networks. F2C2 is freely available for non-commercial use at https://sourceforge.net/projects/f2c2/files/.
Inhalt: Andress, Reinhard: Ein kurzer Brief Humboldts an den Hofmarschall Moritz, Brescius von: Connecting the new world : nets, mobility and progress in the age of Alexander von Humboldt Ette, Ottmar: Alexander von Humboldt in Daniel Kehlmanns Welt Ette, Ottmar: De cómicos e histéricos : una réplica a la sátira sobre eruditos de Daniel Kehlmann Holl, Frank:"Die zweitgrößte Beleidigung des Menschen sei die Sklaverei ..." : Daniel Kehlmanns neu erfundener Alexander von Humboldt Knobloch, Eberhard: Alexander von Humboldt und Carl Friedrich Gauß : im Roman und in Wirklichkeit
Inhalt:
- Thomas Schmuck: Der Briefwechsel zwischen Alexander von Humboldt und Karl Ernst von Baer
- Reinhard Andress / Silvia Navia: Das Tagebuch von Carlos Montúfar: Faksimile und neue Transkription
- Tobias Kraft: Textual Differences in Alexander von Humboldt’s Essai politique sur l’île de Cuba. An editorial commentary on the first volume of the »Humboldt in English« (HiE) book series
- Aliya-Katarina Südfels: Ludwig Leichhardt und Alexander von Humboldt
- Ilse Jahn: Die Beziehung Karl Ernst von Baers zu Berliner Zoologen während seines Wirkens in Königsberg (1818-1834)
Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären?
De cómicos e histéricos
(2012)
La popularidad de Alejandro de Humboldt ha cambiado profundamente dentro del último cuarto de siglo en la opinión pública de habla alemana. Prueba de esto son no sólo las encuestas televisivas sobre los alemanes más famosos, dentro de las cuales figura en estos momentos Alejandro de Humboldt, o programas de televisión sobre expediciones actuales, en los que continuamente se retoma el nombre de Humboldt; quizás la comprobación más clara de este cambio es el éxito enorme de la novela Die Vermessung der Welt de Daniel Kehlmann. Éxito que sería impensable sin el proceso esbozado más arriba. Ante este trasfondo, estudiar el gran éxito de esta pequeña novela resulta no sólo atractivo, sino además revelador. ¿De qué se trata Die Vermessung der Welt? ¿Cómo se puede explicar el »fenómeno Kehlmann« desde una distancia relativamente mayor?
This thesis is focussed on the electronic properties of the new material class named topological insulators. Spin and angle resolved photoelectron spectroscopy have been applied to reveal several unique properties of the surface state of these materials. The first part of this thesis introduces the methodical background of these quite established experimental techniques.
In the following chapter, the theoretical concept of topological insulators is introduced. Starting from the prominent example of the quantum Hall effect, the application of topological invariants to classify material systems is illuminated. It is explained how, in presence of time reversal symmetry, which is broken in the quantum Hall phase, strong spin orbit coupling can drive a system into a topologically non trivial phase. The prediction of the spin quantum Hall effect in two dimensional insulators an the generalization to the three dimensional case of topological insulators is reviewed together with the first experimental realization of a three dimensional topological insulator in the Bi1-xSbx alloys given in the literature.
The experimental part starts with the introduction of the Bi2X3 (X=Se, Te) family of materials. Recent theoretical predictions and experimental findings on the bulk and surface electronic structure of these materials are introduced in close discussion to our own experimental results. Furthermore, it is revealed, that the topological surface state of Bi2Te3 shares its orbital symmetry with the bulk valence band and the observation of a temperature induced shift of the chemical potential is to a high probability unmasked as a doping effect due to residual gas adsorption.
The surface state of Bi2Te3 is found to be highly spin polarized with a polarization value of about 70% in a macroscopic area, while in Bi2Se3 the polarization appears reduced, not exceeding 50%. We, however, argue that the polarization is most likely only extrinsically limited in terms of the finite angular resolution and the lacking detectability of the out of plane component of the electron spin. A further argument is based on the reduced surface quality of the single crystals after cleavage and, for Bi2Se3 a sensitivity of the electronic structure to photon exposure.
We probe the robustness of the topological surface state in Bi2X3 against surface impurities in Chapter 5. This robustness is provided through the protection by the time reversal symmetry. Silver, deposited on the (111) surface of Bi2Se3 leads to a strong electron doping but the surface state is observed up to a deposited Ag mass equivalent to one atomic monolayer. The opposite sign of doping, i.e., hole-like, is observed by exposing oxygen to Bi2Te3. But while the n-type shift of Ag on Bi2Se3 appears to be more or less rigid, O2 is lifting the Dirac point of the topological surface state in Bi2Te3 out of the valence band minimum at $\Gamma$. After increasing the oxygen dose further, it is possible to shift the Dirac point to the Fermi level, while the valence band stays well beyond. The effect is found reversible, by warming up the samples which is interpreted in terms of physisorption of O2.
For magnetic impurities, i.e., Fe, we find a similar behavior as for the case of Ag in both Bi2Se3 and Bi2Te3. However, in that case the robustness is unexpected, since magnetic impurities are capable to break time reversal symmetry which should introduce a gap in the surface state at the Dirac point which in turn removes the protection. We argue, that the fact that the surface state shows no gap must be attributed to a missing magnetization of the Fe overlayer. In Bi2Te3 we are able to observe the surface state for deposited iron mass equivalents in the monolayer regime. Furthermore, we gain control over the sign of doping through the sample temperature during deposition.
Chapter6 is devoted to the lifetime broadening of the photoemission signal from the topological surface states of Bi2Se3 and Bi2Te3. It is revealed that the hexagonal warping of the surface state in Bi2Te3 introduces an anisotropy for electrons traveling along the two distinct high symmetry directions of the surface Brillouin zone, i.e., $\Gamma$K and $\Gamma$M. We show that the phonon coupling strength to the surface electrons in Bi2Te3 is in nice agreement with the theoretical prediction but, nevertheless, higher than one may expect. We argue that the electron-phonon coupling is one of the main contributions to the decay of photoholes but the relatively small size of the Fermi surface limits the number of phonon modes that may scatter off electrons. This effect is manifested in the energy dependence of the imaginary part of the electron self energy of the surface state which shows a decay to higher binding energies in contrast to the monotonic increase proportional to E$^2$ in the Fermi liquid theory due to electron-electron interaction.
Furthermore, the effect of the surface impurities of Chapter 5 on the quasiparticle life- times is investigated. We find that Fe impurities have a much stronger influence on the lifetimes as compared to Ag. Moreover, we find that the influence is stronger independently of the sign of the doping. We argue that this observation suggests a minor contribution of the warping on increased scattering rates in contrast to current belief. This is additionally confirmed by the observation that the scattering rates increase further with increasing silver amount while the doping stays constant and by the fact that clean Bi2Se3 and Bi2Te3 show very similar scattering rates regardless of the much stronger warping in Bi2Te3.
In the last chapter we report on a strong circular dichroism in the angle distribution of the photoemission signal of the surface state of Bi2Te3. We show that the color pattern obtained by calculating the difference between photoemission intensities measured with opposite photon helicity reflects the pattern expected for the spin polarization. However, we find a strong influence on strength and even sign of the effect when varying the photon energy. The sign change is qualitatively confirmed by means of one-step photoemission calculations conducted by our collaborators from the LMU München, while the calculated spin polarization is found to be independent of the excitation energy. Experiment and theory together unambiguously uncover the dichroism in these systems as a final state effect and the question in the title of the chapter has to be negated: Circular dichroism in the angle distribution is not a new spin sensitive technique.
Porous materials (e.g. zeolites, activated carbon, etc.) have found various applications in industry, such as the use as sorbents, catalyst supports and membranes for separation processes. Recently, much attention has been focused on synthesizing porous polymer materials. A vast amount of tailor-made polymeric systems with tunable properties has been investigated. Very often, however, the starting substances for these polymers are of petrochemical origin, and the processes are all in all not sustainable. Moreover, the new polymers have challenged existing characterizing methodologies. These have to be further developed to address the upcoming demands of the novel materials. Some standard techniques for the analysis of porous substances like nitrogen sorption at 77 K do not seem to be sufficient to answer all arising questions about the microstructure of such materials. In this thesis, microporous polymers from an abundant natural resource, betulin, will be presented. Betulin is a large-scale byproduct of the wood industry, and its content in birch bark can reach 30 wt.%. Based on its rigid structure, polymer networks with intrinsic microporosity could be synthesized and characterized. Apart from standard nitrogen and carbon dioxide sorption at 77 K and 273 K, respectively, gas sorption has been examined not only with various gases (hydrogen and argon) but also at various temperatures. Additional techniques such as X-ray scattering and xenon NMR have been utilized to enable insight into the microporous structure of the material. Starting from insoluble polymer networks with promising gas selectivities, soluble polyesters have been synthesized and processed to a cast film. Such materials are feasible for membrane applications in gas separation. Betulin as a starting compound for polyester synthesis has aided to prepare, and for the first time to thoroughly analyse a microporous polyester with respect to its pores and microstructure. It was established that nitrogen adsorption at 87 K can be a better method to solve the microstructure of the material. In addition to that, other betulin-based polymers such as polyurethanes and polyethylene glycol bioconjugates are presented. Altogether, it has been shown that as an abundant natural resource betulin is a suitable and cheap starting compound for some polymers with various potential applications.
The present thesis is to be brought into line with the current need for alternative and sustainable approaches toward energy management and materials design. In this context, carbon in particular has become the material of choice in many fields such as energy conversion and storage. Herein, three main topics are covered: 1)An alternative synthesis strategy toward highly porous functional carbons with tunable porosity using ordinary salts as porogen (denoted as “salt templating”) 2)The one-pot synthesis of porous metal nitride containing functional carbon composites 3)The combination of both approaches, enabling the generation of highly porous composites with finely tunable properties All approaches have in common that they are based on the utilization of ionic liquids, salts which are liquid below 100 °C, as precursors. Just recently, ionic liquids were shown to be versatile precursors for the generation of heteroatom-doped carbons since the liquid state and a negligible vapor pressure are highly advantageous properties. However, in most cases the products do not possess any porosity which is essential for many applications. In the first part, “salt templating”, the utilization of salts as diverse and sustainable porogens, is introduced. Exemplarily shown for ionic liquid derived nitrogen- and nitrogen-boron-co-doped carbons, the control of the porosity and morphology on the nanometer scale by salt templating is presented. The studies within this thesis were conducted with the ionic liquids 1-Butyl-3-methyl-pyridinium dicyanamide (Bmp-dca), 1-Ethyl-3-methyl-imidazolium dicyanamide (Emim-dca) and 1 Ethyl 3-methyl-imidazolium tetracyanoborate (Emim-tcb). The materials are generated through thermal treatment of precursor mixtures containing one of the ionic liquids and a porogen salt. By simple removal of the non-carbonizable template salt with water, functional graphitic carbons with pore sizes ranging from micro- to mesoporous and surface areas up to 2000 m2g-1 are obtained. The carbon morphologies, which presumably originate from different onsets of demixing, mainly depend on the nature of the porogen salt whereas the nature of the ionic liquid plays a minor role. Thus, a structural effect of the porogen salt rather than activation can be assumed. This offers an alternative to conventional activation and templating methods, enabling to avoid multiple-step and energy-consuming synthesis pathways as well as employment of hazardous chemicals for the template removal. The composition of the carbons can be altered via the heat-treatment procedure, thus at lower synthesis temperatures rather polymeric carbonaceous materials with a high degree of functional groups and high surface areas are accessible. First results suggest the suitability of the materials for CO2 utilization. In order to further illustrate the potential of ionic liquids as carbon precursors and to expand the class of carbons which can be obtained, the ionic liquid 1-Ethyl-3-methyl-imidazolium thiocyanate (Emim-scn) is introduced for the generation of nitrogen-sulfur-co-doped carbons in combination with the already studied ionic liquids Bmp-dca and Emim-dca. Here, the salt templating approach should also be applicable eventually further illustrating the potential of salt templating, too. In the second part, a one-pot and template-free synthesis approach toward inherently porous metal nitride nanoparticle containing nitrogen-doped carbon composites is presented. Since ionic liquids also offer outstanding solubility properties, the materials can be generated through the carbonization of homogeneous solutions of an ionic liquid acting as nitrogen as well as carbon source and the respective metal precursor. The metal content and surface area are easily tunable via the initial metal precursor amount. Furthermore, it is also possible to synthesize composites with ternary nitride nanoparticles whose composition is adjustable by the metal ratio in the precursor solution. Finally, both approaches are combined into salt templating of the one-pot composites. This opens the way to the one-step synthesis of composites with tunable composition, particle size as well as precisely controllable porosity and morphology. Thereby, common synthesis strategies where the product composition is often negatively affected by the template removal procedure can be avoided. The composites are further shown to be suitable as electrodes for supercapacitors. Here, different properties such as porosity, metal content and particle size are investigated and discussed with respect to their influence on the energy storage performance. Because a variety of ionic liquids, metal precursors and salts can be combined and a simple closed-loop process including salt recycling is imaginable, the approaches present a promising platform toward sustainable materials design.
The underlying motivation for the work carried out for this thesis was the growing need for more sustainable technologies. The aim was to synthesize a “palette” of functional nanomaterials using the established technique of hydrothermal carbonization (HTC). The incredible diversity of HTC was demonstrated together with small but steady advances in how HTC can be manipulated to tailor material properties for specific applications. Two main strategies were used to modify the materials obtained by HTC of glucose, a model precursor representing biomass. The first approach was the introduction of heteroatoms, or “doping” of the carbon framework. Sulfur was for the first time introduced as a dopant in hydrothermal carbon. The synthesis of sulfur and sulfur/nitrogen doped microspheres was presented whereby it was shown that the binding state of sulfur could be influenced by varying the type of sulfur source. Pyrolysis may additionally be used to tune the heteroatom binding states which move to more stable motifs with increasing pyrolysis temperature. Importantly, the presence of aromatic binding states in the as synthesized hydrothermal carbon allows for higher heteroatom retention levels after pyrolysis and hence more efficient use of dopant sources. In this regard, HTC may be considered as an “intermediate” step in the formation of conductive heteroatom doped carbon. To assess the novel hydrothermal carbons in terms of their potential for electrochemical applications, materials with defined nano-architectures and high surface areas were synthesized via templated, as well as template-free routes. Sulfur and/or nitrogen doped carbon hollow spheres (CHS) were synthesized using a polystyrene hard templating approach and doped carbon aerogels (CA) were synthesized using either the albumin directed or borax-mediated hydrothermal carbonization of glucose. Electrochemical testing showed that S/N dual doped CHS and aerogels derived via the albumin approach exhibited superior catalytic performance compared to solely nitrogen or sulfur doped counterparts in the oxygen reduction reaction (ORR) relevant to fuel cells. Using the borax mediated aerogel formation, nitrogen content and surface area could be tuned and a carbon aerogel was engineered to maximize electrochemical performance. The obtained sample exhibited drastically improved current densities compared to a platinum catalyst (but lower onset potential), as well as excellent long term stability. In the second approach HTC was carried out at elevated temperatures (550 °C) and pressure (50 bar), corresponding to the superheated vapor regime (htHTC). It was demonstrated that the carbon materials obtained via htHTC are distinct from those obtained via ltHTC and subsequent pyrolysis at 550 °C. No difference in htHTC-derived material properties could be observed between pentoses and hexoses. The material obtained from a polysaccharide exhibited a slightly lower degree of carbonization but was otherwise similar to the monosaccharide derived samples. It was shown that in addition to thermally induced carbonization at 550 °C, the SHV environment exhibits a catalytic effect on the carbonization process. The resulting materials are chemically inert (i.e. they contain a negligible amount of reactive functional groups) and possess low surface area and electronic conductivity which distinguishes them from carbon obtained from pyrolysis. Compared to the materials presented in the previous chapters on chemical modifications of hydrothermal carbon, this makes them ill-suited candidates for electronic applications like lithium ion batteries or electrocatalysts. However, htHTC derived materials could be interesting for applications that require chemical inertness but do not require specific electronic properties. The final section of this thesis therefore revisited the latex hard templating approach to synthesize carbon hollow spheres using htHTC. However, by using htHTC it was possible to carry out template removal in situ because the second heating step at 550 °C was above the polystyrene latex decomposition temperature. Preliminary tests showed that the CHS could be dispersed in an aqueous polystyrene latex without monomer penetrating into the hollow sphere voids. This leaves the stagnant air inside the CHS intact which in turn is promising for their application in heat and sound insulating coatings. Overall the work carried out in this thesis represents a noteworthy development in demonstrating the great potential of sustainable carbon materials.
The need to reduce humankind reliance on fossil fuels by exploiting sustainably the planet renewable resources is a major driving force determining the focus of modern material research. For this reason great interest is nowadays focused on finding alternatives to fossil fuels derived products/materials. For the short term the most promising substitute is undoubtedly biomass, since it is the only renewable and sustainable alternative to fossil fuels as carbon source. As a consequence efforts, aimed at finding new synthetic approaches to convert biomass and its derivatives into carbon-based materials, are constantly increasing. In this regard, hydrothermal carbonisation (HTC) has shown to be an effective means of conversion of biomass-derived precursors into functional carbon materials. However the attempts to convert raw biomass, in particular lignocellulosic one, directly into such products have certainly been rarer. Unlocking the direct use of these raw materials as carbon precursors would definitely be beneficial in terms of HTC sustainability. For this reason, in this thesis the HTC of carbohydrate and protein-rich biomass was systematically investigated, in order to obtain more insights on the potentials of this thermochemical processing technique in relation to the production of functional carbon materials from crude biomass. First a detailed investigation on the HTC conversion mechanism of lignocellulosic biomass and its single components (i.e. cellulose, lignin) was developed based on a comparison with glucose HTC, which was adopted as a reference model. In the glucose case it was demonstrated that varying the HTC temperature allowed tuning the chemical structure of the synthesised carbon materials from a highly cross-linked furan-based structure (T = 180oC) to a carbon framework composed of polyaromatic arene-like domains. When cellulose or lignocellulosic biomass was used as carbon precursor, the furan rich structure could not be isolated at any of the investigated processing conditions. These evidences were indicative of a different HTC conversion mechanism for cellulose, involving reactions that are commonly observed during pyrolytic processes. The evolution of glucose-derived HTC carbon chemical structure upon pyrolysis was also investigated. These studies revealed that upon heat treatment (Investigated temperatures 350 – 900 oC) the furan-based structure was progressively converted into highly curved aromatic pre-graphenic domains. This thermal degradation process was observed to produce an increasingly more hydrophobic surface and considerable microporosity within the HTC carbon structure. In order to introduce porosity in the HTC carbons derived from lignocellulosic biomass, KOH chemical activation was investigated as an HTC post-synthesis functionalisation step. These studies demonstrated that HTC carbons are excellent precursors for the production of highly microporous activated carbons (ACs) and that the porosity development upon KOH chemical activation is dependent on the chemical structure of the HTC carbon, tuned by employing different HTC temperatures. Preliminary testing of the ACs for CO2 capture or high pressure CH4 storage yielded very promising results, since the measured uptakes of both adsorbates (i.e. CO2 and CH4) were comparable to top-performing and commercially available adsorbents, usually employed for these end-applications. The combined use of HTC and KOH chemical activation was also employed to produce highly microporous N-doped ACs from microalgae. The hydrothermal treatment of the microalgae substrate was observed to cause the depletion of the protein and carbohydrate fractions and the near complete loss (i.e. 90%) of the microalgae N-content, as liquid hydrolysis/degradation products. The obtained carbonaceous product showed a predominantly aliphatic character indicating the presence of alkyl chains presumably derived from the lipid fractions. Addition of glucose to the initial reaction mixture was found out to be extremely beneficial, because it allowed the fixation of a higher N amount, in the algae derived HTC carbons (i.e. 60%), and the attainment of higher product yields (50%). Both positive effects were attributed to Maillard type cascade reactions taking place between the monosaccharides and the microalgae derived liquid hydrolysis/degradation products, which were in this way recovered from the liquid phase. KOH chemical activation of the microalgae/glucose mixture derived HTC carbons produced highly microporous N-doped carbons. Although the activation process led to a major reduction of the N-content, the retained N-amount in the ACs was still considerable. These features render these materials ideal candidates for supercapacitors electrodes, since they provide extremely high surface areas, for the formation of electric double-layer, coupled to abundant heteroatom doping (i.e. N and O) necessary to obtain a pseudocapacitance contribution.
Ein viel diskutiertes Thema unserer Zeit ist die Zukunft der Energiegewinnung und Speicherung. Dabei nimmt die Nanowissenschaft eine bedeutende Rolle ein; sie führt zu einer Effizienzsteigerung bei der Speicherung und Gewinnung durch bereits bekannte Materialien und durch neue Materialien. In diesem Zusammenhang ist die Chemie Wegbereiter für Nanomaterialien. Allerdings führen bisher die meisten bekannten Synthesen von Nanopartikeln zu undefinierten Partikeln. Eine einfache, kostengünstige und sichere Synthese würde die Möglichkeit einer breiten Anwendung und Skalierbarkeit bieten. In dieser Arbeit soll daher die Darstellung der einfachen Synthese von Mangannitrid-, Aluminiumnitrid-, Lithiummangansilicat-, Zirkonium-oxinitrid- und Mangancarbonatnanopartikel betrachtet werden. Dabei werden die sogenannte Harnstoff-Glas-Route als eine Festphasensynthese und die Solvothermalsynthese als typische Flüssigphasensynthese eingesetzt. Beide Synthesewege führen zu definierten Partikelgrößen und interessanten Morphologien und ermöglichen eine Einflussnahme auf die Produkte. Im Falle der Synthese der Mangannitridnanopartikel mithilfe der Harnstoff-Glas-Route führt diese zu Nanopartikeln mit Kern-Hülle-Struktur, deren Einsatz als Konversionsmaterial erstmalig vorgestellt wird. Mit dem Ziel einer leichteren Anwendung von Nanopartikeln wird eine einfache Beschichtung von Oberflächen mit Nanopartikeln mithilfe der Rotationsbeschichtung beschrieben. Es entstand ein Gemisch aus MnN0,43/MnO-Nanopartikeln, eingebettet in einem Kohlenstofffilm, dessen Untersuchung als Konversionsmaterial hohe spezifische Kapazitäten (811 mAh/g) zeigt, die die von dem konventionellen Anodenmaterial Graphit (372 mAh/g) übersteigt. Neben der Synthese des Anodenmaterials wurde ebenfalls die des Kathodenmaterials Li2MnSiO4-Nanopartikeln mithilfe der Harnstoff-Glas-Route vorgestellt. Mithilfe der Synthese von Zirkoniumoxinitridnanopartikeln Zr2ON2 kann eine einfache Einflussnahme auf das gewünschte Produkt durch die Variation derReaktionsbedingungen, wie Harnstoffmenge oder Reaktionstemperatur, bei der Harnstoff-Glas-Route demonstriert werden. Der Zusatz von kleinsten Mengen an Ammoniumchlorid vermeidet, dass sich Kohlenstoff im Endprodukt bildet und führt so zu gelben Zr2ON2-Nanopartikeln mit einer Größe d = 8 nm, die Halbleitereigen-schaften besitzen. Die Synthese von Aluminiumnitridnanopartikeln führt zu kristallinen Nanopartikeln, die in eine amorphe Matrix eingebettet sind. Die Solvothermalsynthese von Mangancarbonatnanopartikel lässt neue Morphologien in Form von Nanostäbchen entstehen, die zu schuppenartigen sphärischen Überstrukturen agglomeriert sind.
Im Fokus dieser Arbeit stand der Aufbau einer auf DNA basierenden Nanostruktur. Der universelle Vier-Buchstaben-Code der DNA ermöglicht es, Bindungen auf molekularer Ebene zu adressieren. Die chemischen und physikalischen Eigenschaften der DNA prädestinieren dieses Makromolekül für den Einsatz und die Verwendung als Konstruktionselement zum Aufbau von Nanostrukturen. Das Ziel dieser Arbeit war das Aufspannen eines DNA-Stranges zwischen zwei Fixpunkten. Hierfür war es notwendig, eine Methode zu entwickeln, welche es ermöglicht, Funktionsmoleküle als Ankerelemente ortsaufgelöst auf eine Oberfläche zu deponieren. Das Deponieren dieser Moleküle sollte dabei im unteren Mikrometermaßstab erfolgen, um den Abmaßen der DNA und der angestrebten Nanostruktur gerecht zu werden. Das eigens für diese Aufgabe entwickelte Verfahren zum ortsaufgelösten Deponieren von Funktionsmolekülen nutzt das Bindungspaar Biotin-Neutravidin. Mit Hilfe eines Rasterkraftmikroskops (AFM) wurde eine zu einem „Stift“ umfunktionierte Rasterkraftmikroskopspitze so mit der zu deponierenden „Tinte“ beladen, dass das Absetzen von Neutravidin im unteren Mikrometermaßstab möglich war. Dieses Neutravidinmolekül übernahm die Funktion als Bindeglied zwischen der biotinylierten Glasoberfläche und dem eigentlichen Adressmolekül. Das somit generierte Neutravidin-Feld konnte dann mit einem biotinylierten Adressmolekül durch Inkubation funktionalisiert werden. Namensgebend für dieses Verfahren war die Möglichkeit, Neutravidin mehrmals zu deponieren und zu adressieren. Somit ließ sich sequenziell ein Mehrkomponenten-Feld aufbauen. Die Einschränkung, mit einem AFM nur eine Substanz deponieren zu können, wurde so umgangen. Ferner mußten Ankerelemente geschaffen werden, um die DNA an definierten Punkten immobilisieren zu können. Die Bearbeitung der DNA erfolgte mit molekularbiologischen Methoden und zielte darauf ab, einen DNA-Strang zu generieren, welcher an seinen beiden Enden komplementäre Adressequenzen enthält, um gezielt mit den oberflächenständigen Ankerelementen binden zu können. Entsprechend der Geometrie der mit dem AFM erzeugten Fixpunkte und den oligonukleotidvermittelten Adressen kommt es zur Ausbildung einer definierten DNA-Struktur. Mit Hilfe von fluoreszenzmikroskopischen Methoden wurde die aufgebaute DNA-Nanostruktur nachgewiesen. Der Nachweis der nanoskaligen Interaktion von DNA-bindenden Molekülen mit der generierten DNA-Struktur wurde durch die Bindung von PNA (peptide nucleic acid) an den DNA-Doppelstrang erbracht. Diese PNA-Bindung stellt ihrerseits ein funktionales Strukturelement im Nanometermaßstab dar und wird als Nanostrukturbaustein verstanden.
Eye movements are a powerful tool to examine cognitive processes. However, in most paradigms little is known about the dynamics present in sequences of saccades and fixations. In particular, the control of fixation durations has been widely neglected in most tasks. As a notable exception, both spatial and temporal aspects of eye-movement control have been thoroughly investigated during reading. There, the scientific discourse was dominated by three controversies, (i), the role of oculomotor vs. cognitive processing on eye-movement control, (ii) the serial vs. parallel processing of words, and, (iii), the control of fixation durations. The main purpose of this thesis was to investigate eye movements in tasks that require sequences of fixations and saccades. While reading phenomena served as a starting point, we examined eye guidance in non-reading tasks with the aim to identify general principles of eye-movement control. In addition, the investigation of eye movements in non-reading tasks helped refine our knowledge about eye-movement control during reading. Our approach included the investigation of eye movements in non-reading experiments as well as the evaluation and development of computational models. I present three main results : First, oculomotor phenomena during reading can also be observed in non-reading tasks (Chapter 2 & 4). Oculomotor processes determine the fixation position within an object. The fixation position, in turn, modulates both the next saccade target and the current fixation duration. Second, predicitions of eye-movement models based on sequential attention shifts were falsified (Chapter 3). In fact, our results suggest that distributed processing of multiple objects forms the basis of eye-movement control. Third, fixation durations are under asymmetric control (Chapter 4). While increasing processing demands immediately prolong fixation durations, decreasing processing demands reduce fixation durations only with a temporal delay. We propose a computational model ICAT to account for asymmetric control. In this model, an autonomous timer initiates saccades after random time intervals independent of ongoing processing. However, processing demands that are higher than expected inhibit the execution of the next saccade and, thereby, prolong the current fixation. On the other hand, lower processing demands will not affect the duration before the next saccade is executed. Since the autonomous timer adjusts to expected processing demands from fixation to fixation, a decrease in processing demands may lead to a temporally delayed reduction of fixation durations. In an extended version of ICAT, we evaluated its performance while simulating both temporal and spatial aspects of eye-movement control. The eye-movement phenomena investigated in this thesis have now been observed in a number of different tasks, which suggests that they represent general principles of eye guidance. I propose that distributed processing of the visual input forms the basis of eye-movement control, while fixation durations are controlled by the principles outlined in ICAT. In addition, oculomotor control contributes considerably to the variability observed in eye movements. Interpretations for the relation between eye movements and cognition strongly benefit from a precise understanding of this interplay.
Das Herbsttreffen Patholinguistik wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) durchgeführt. Die Jubiläumsveranstaltung am 19.11.2011 in Potsdam war nicht nur die 5. Auflage der Veranstaltung, sondern auch ein Fest zum 10jährigen Bestehen des Verbandes. Das Thema lautete "Schluck für Schluck: Dysphagietherapie bei Kindern und Erwachsenen". Im vorliegenden Tagungsband finden sich die Artikel der Hauptvorträge sowie die Abstracts der Posterpräsentationen.
In diesem einleitenden Beitrag des Themenschwerpunktes wird der
Hintergrund der internationalen Klimaverhandlungen erläutert und
die Ergebnisse des Kopenhagen-Akkords vorgestellt. Angesichts des
Scheiterns der Kopenhagener Konferenz muss die zeitnahe Schließung
eines rechtlich bindenden, globalen Klimaabkommens als unwahrscheinlich
gelten. Die Klimapolitik wird zukünftig verstärkt auf nationalstaatlicher
und transnationaler Ebene erfolgen.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
Die Entwicklung neuer Verfahren für die Rückführung von Palladium aus Altmaterialien, wie gebrauchten Autoabgaskatalysatoren, in den Stoffstromkreislauf ist sowohl aus ökologischer als auch ökonomischer Sicht erstrebenswert. In dieser Arbeit wurden neue Flüssig-Flüssig- und Fest-Flüssig-Extraktionsmittel entwickelt, mit denen Palladium(II) aus einer oxidierenden, salzsauren Laugungslösung, die neben Palladium auch Platin und Rhodium sowie zahlreiche unedle Metalle enthält, zurückgewonnen werden kann. Die neuen Extraktionsmittel ungesättigte monomere 1,2-Dithioether und oligomere Ligandenmischungen mit vicinalen Dithioether-Einheiten – sind im Gegensatz zu vielen in der Literatur aufgeführten Extraktionsmitteln hochselektiv. Aufgrund ihrer geometrischen und elektronischen Präorganisation bilden sie mit Palladium(II) stabile quadratisch-planare Chelatkomplexe. Für die Entwicklung des Flüssig-Flüssig-Extraktionsmittels wurde eine Reihe von ungesättigten 1,2-Dithioetherliganden dargestellt, welche auf einer starren 1,2-Dithioethen-Einheit, die in ein variierendes elektronenziehendes Grundgerüst eingebettet ist, basieren und polare Seitenketten besitzen. Neben der Bestimmung der Kristallstrukturen der Liganden und ihrer Palladiumdichlorid-Komplexe wurden die elektro- und photochemischen Eigenschaften, die Komplexstabilität und das Verhalten in Lösung untersucht. In Flüssig-Flüssig-Extraktionsuntersuchungen konnte gezeigt werden, dass einige der neuen Liganden industriell genutzten Extraktionsmitteln durch eine schnellere Einstellung des Extraktionsgleichgewichts überlegen sind. Anhand von Kriterien, die für eine industrielle Nutzbarkeit entscheidend sind, wie: guter Oxidationsbeständigkeit, einer hohen Extraktionsausbeute (auch bei hohen Salzsäurekonzentrationen der Speiselösung), schneller Extraktionskinetik und einer hohen Selektivität für Palladium(II) wurde aus der Reihe der sechs Liganden ein geeignetes Flüssig-Flüssig-Extraktionsmittel ausgewählt: 1,2-Bis(2-methoxyethylthio)benzen. Mit diesem wurde ein praxisnahes Flüssig-Flüssig-Extraktionssystem entwickelt. Nach der schrittweisen Adaption der wässrigen Phase von einer Modelllösung hin zu der oxidierenden, salzsauren Laugungslösung erfolgte die Auswahl eines geeigneten großtechnisch, einsetzbaren Lösemittels (1,2-Dichlorbenzen) und eines effizienten Reextraktionsmittels (0,5 M Thioharnstoff in 0,1 M HCl). Die hohe Palladium(II)-Selektivität dieses Flüssig-Flüssig-Extraktionssystems konnte verifiziert und seine Wiederverwendbarkeit und Praxistauglichkeit unter Beweis gestellt werden. Weiterhin wurde gezeigt, dass sich beim Kontakt mit oxidierenden Medien aus dem Dithioether 1,2-Bis(2-methoxyethylthio)benzen geringe Mengen des Thioethersulfoxids 1-(2-Methoxyethylsulfinyl)-2-(2-methoxyethylthio)benzen bilden. Dieses wird im sauren Milieu protoniert und beschleunigt die Extraktion wie ein Phasentransferkatalysator, ohne jedoch die Palladium(II)-Selektivität herabzusetzen. Die Kristallstruktur des Palladiumdichlorid-Komplexes des Tioethersulfoxids zeigt, dass der unprotonierte Ligand Palladium(II), analog zum Dithioether, über die chelatisierenden Schwefelatome koordiniert. Verschiedene Mischungen von Oligo(dithioether)-Liganden und der monomere Ligand 1,2-Bis(2-methoxyethylthio)benzen dienten als Extraktionsmittel für Fest-Flüssig-Extraktionsversuche mit SIRs (solvent impregnated resins) und wurden zu diesem Zweck auf hydrophilem Kieselgel und organophilem Amberlite® XAD 2 adsorbiert. Die Oligo(dithioether)-Liganden basieren auf 1,2-Dithiobenzen oder 1,2-Dithiomaleonitril-Einheiten, welche über Tris(oxyethylen)ethylen- oder Trimethylen-Brücken miteinander verknüpft sind. Mit Hilfe von Batch-Versuchen konnte gezeigt werden, dass sich strukturelle Unterschiede - wie die Art der chelatisierenden Einheit, die Art der verbrückenden Ketten und das Trägermaterial - auf die Extraktionsausbeuten, die Extraktionskinetik und die Beladungskapazität auswirken. Die kieselgelhaltigen SIRs stellen das Extraktionsgleichgewicht viel schneller ein als die Amberlite® XAD 2-haltigen. Jedoch bleiben die Extraktionsmittel auf Amberlite® XAD 2, im Gegensatz zu Kieselgel, dauerhaft haften. Im salzsauren Milieu sind die 1,2-Dithiobenzen-derivate besser als Extraktionsmittel geeignet als die 1,2-Dithiomaleonitrilderivate. In Säulenversuchen mit der oxidierenden, salzsauren Laugungslösung und wiederverwendbaren, mit 1,2-Dithiobenzenderivaten imprägnierten, Amberlite® XAD 2-haltigen SIRs zeigte sich, dass für die Realisierung hoher Beladungskapazitäten sehr geringe Pumpraten benötigt werden. Trotzdem konnte die gute Palladium(II)-Selektivität dieser Festphasenmaterialien demonstriert werden. Allerdings wurden in den Eluaten im Gegensatz zu den Eluaten, die aus Flüssig-Flüssig-Extraktion resultierten neben dem Palladium auch geringe Mengen an Platin, Aluminium, Eisen und Blei gefunden.
The authors discuss the use of the discrepancy principle for statistical inverse problems, when the underlying operator is of trace class. Under this assumption the discrepancy principle is well defined, however a plain use of it may occasionally fail and it will yield sub-optimal rates. Therefore, a modification of the discrepancy is introduced, which takes into account both of the above deficiencies. For a variety of linear regularization schemes as well as for conjugate gradient iteration this modification is shown to yield order optimal a priori error bounds under general smoothness assumptions. A posteriori error control is also possible, however at a sub-optimal rate, in general. This study uses and complements previous results for bounded deterministic noise.
Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können.
Die Fähigkeit, mit anderen Zellen zu kommunizieren, ist eine grundlegende Eigenschaft aller lebenden Zellen und essentiell für die normale Funktionsweise vielzelliger Organismen. Die Speicheldrüsen der Schmeißfliege Calliphora vicina bilden ein ausgezeichnetes physiologisches Modellsystem um zelluläre Signaltransduktionsprozesse an einem intakten Organ zu untersuchen. Die Speichelsekretion wird dabei hormonell durch das biogene Amin Serotonin (5-Hydroxytryptamin; 5-HT) reguliert. 5-HT aktiviert in den sekretorischen Zellen der Drüsen über die Bindung an mindestens zwei membranständige G-Protein gekoppelte Rezeptoren (GPCR) zwei separate Signalwege, den IP3/Ca2+- und den cAMP-Signalweg. Zur Identifizierung und Charakterisierung der 5-HT-Rezeptoren in den Speicheldrüsen von Calliphora wurden unter Anwendung verschiedener Klonierungsstrategien zwei cDNAs (Cv5-ht2α und Cv5-ht7) isoliert, die große Ähnlichkeit zu 5-HT2- und 5-HT7-Rezeptoren aus Säugetieren aufweisen. Die Hydropathieprofile der abgeleiteten Aminosäuresequenzen postulieren die für GPCRs charakteristische heptahelikale Architektur. Alle Aminosäuremotive, die für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an G-Proteine essentiell sind, liegen konserviert vor. Interessanterweise wurde für den Cv5-HT7-Rezeptor eine zusätzliche hydrophobe Domäne im N Terminus vorhergesagt. Die Cv5-HT2α-mRNA liegt in zwei alternativ gespleißten Varianten vor. Mittels RT-PCR-Experimenten konnte die Expression beider Rezeptoren in Gehirn und Speicheldrüsen adulter Fliegen nachgewiesen werden. Ein Antiserum gegen den Cv5-HT7 Rezeptor markiert in den Speicheldrüsen die basolaterale Plasmamembran. Die Expression der Rezeptoren in einem heterologen System (HEK 293-Zellen) bestätigte diese als funktionelle 5-HT Rezeptoren. So führte die Stimulation mit Serotonin für den Cv5-HT2α zu einer dosis-abhängigen Erhöhung der intrazellulären Ca2+ Konzentration ([Ca2+]i, EC50 = 24 nM). In Cv5-HT7-exprimierenden Zellen löste 5-HT dosisabhängig (EC50 = 4,1 nM) einen Anstieg der intrazellulären cAMP Konzentration ([cAMP]i) aus. Für beide heterolog exprimierten Rezeptoren wurden pharmakologische Profile erstellt. Liganden, die eine Rezeptorsubtyp-spezifische Wirkung vermuten ließen, wurden daraufhin auf ihre Wirkung auf das transepitheliale Potential (TEP) intakter Speicheldrüsenpräparate getestet. Drei 5-HT-Rezeptoragonisten: AS 19, R-(+)-Lisurid und 5-Carboxamidotryptamin führten zu einer cAMP-abhängigen Positivierung des TEP durch eine selektive Aktivierung der 5 HT7-Rezeptoren. Eine selektive Aktivierung des Ca2+-Signalweges durch den Cv5-HT2 Rezeptor ist mit Hilfe von 5-Methoxytryptamin möglich. Dagegen konnte Clozapin im TEP als selektiver Cv5-HT7-Rezeptorantagonist bestätigt werden. Die Kombination eines molekularen Ansatzes mit physiologischen Messungen ermöglichte somit die Identifikation selektiver Liganden für 5-HT2- bzw. 5-HT7-Rezeptoren aus Calliphora vicina. Dies ermöglicht zukünftig eine separate Aktivierung der 5-HT-gesteuerten Signalwege und erleichtert dadurch die weitere Erforschung der intrazellulären Signalwege und ihrer Wechselwirkungen.
During reading, saccadic eye movements are generated to shift words into the center of the visual field for lexical processing. Recently, Krugel and Engbert (Vision Research 50:1532-1539, 2010) demonstrated that within-word fixation positions are largely shifted to the left after skipped words. However, explanations of the origin of this effect cannot be drawn from normal reading data alone. Here we show that the large effect of skipped words on the distribution of within-word fixation positions is primarily based on rather subtle differences in the low-level visual information acquired before saccades. Using arrangements of "x" letter strings, we reproduced the effect of skipped character strings in a highly controlled single-saccade task. Our results demonstrate that the effect of skipped words in reading is the signature of a general visuomotor phenomenon. Moreover, our findings extend beyond the scope of the widely accepted range-error model, which posits that within-word fixation positions in reading depend solely on the distances of target words. We expect that our results will provide critical boundary conditions for the development of visuomotor models of saccade planning during reading.
Thermal and quantum fluctuations of the electromagnetic near field of atoms and macroscopic bodies play a key role in quantum electrodynamics (QED), as in the Lamb shift. They lead, e.g., to atomic level shifts, dispersion interactions (Van der Waals-Casimir-Polder interactions), and state broadening (Purcell effect) because the field is subject to boundary conditions. Such effects can be observed with high precision on the mesoscopic scale which can be accessed in micro-electro-mechanical systems (MEMS) and solid-state-based magnetic microtraps for cold atoms (‘atom chips’). A quantum field theory of atoms (molecules) and photons is adapted to nonequilibrium situations. Atoms and photons are described as fully quantized while macroscopic bodies can be included in terms of classical reflection amplitudes, similar to the scattering approach of cavity QED. The formalism is applied to the study of nonequilibrium two-body potentials. We then investigate the impact of the material properties of metals on the electromagnetic surface noise, with applications to atomic trapping in atom-chip setups and quantum computing, and on the magnetic dipole contribution to the Van der Waals-Casimir-Polder potential in and out of thermal equilibrium. In both cases, the particular properties of superconductors are of high interest. Surface-mode contributions, which dominate the near-field fluctuations, are discussed in the context of the (partial) dynamic atomic dressing after a rapid change of a system parameter and in the Casimir interaction between two conducting plates, where nonequilibrium configurations can give rise to repulsion.
Background: Detection of immunogenic proteins remains an important task for life sciences as it nourishes the understanding of pathogenicity, illuminates new potential vaccine candidates and broadens the spectrum of biomarkers applicable in diagnostic tools. Traditionally, immunoscreenings of expression libraries via polyclonal sera on nitrocellulose membranes or screenings of whole proteome lysates in 2-D gel electrophoresis are performed. However, these methods feature some rather inconvenient disadvantages. Screening of expression libraries to expose novel antigens from bacteria often lead to an abundance of false positive signals owing to the high cross reactivity of polyclonal antibodies towards the proteins of the expression host. A method is presented that overcomes many disadvantages of the old procedures.
Results: Four proteins that have previously been described as immunogenic have successfully been assessed immunogenic abilities with our method. One protein with no known immunogenic behaviour before suggested potential immunogenicity. We incorporated a fusion tag prior to our genes of interest and attached the expressed fusion proteins covalently on microarrays. This enhances the specific binding of the proteins compared to nitrocellulose. Thus, it helps to reduce the number of false positives significantly. It enables us to screen for immunogenic proteins in a shorter time, with more samples and statistical reliability. We validated our method by employing several known genes from Campylobacter jejuni NCTC 11168.
Conclusions: The method presented offers a new approach for screening of bacterial expression libraries to illuminate novel proteins with immunogenic features. It could provide a powerful and attractive alternative to existing methods and help to detect and identify vaccine candidates, biomarkers and potential virulence-associated factors with immunogenic behaviour furthering the knowledge of virulence and pathogenicity of studied bacteria.
Aktuelle Fragen des Menschenrechtsschutzes : 1. Potsdamer Menschenrechtstag am 26. Oktober 2011
(2012)
Aus Anlass der Neubesetzung des Menschenrechtszentrums mit den Direktoren Prof. Dr. Andreas Zimmermann, LL.M. (Harvard) und Prof. Dr. Logi Gunnarsson fand am 26.10.2011 der Potsdamer Menschenrechtstag unter der Themenstellung „Aktuelle Fragen des Menschenrechtsschutzes“ statt. Ganz im Sinne der interdisziplinären Ausrichtung des MenschenRechtsZentrums der Universität Potsdam beschäftigten sich die beiden Direktoren in ihren Einführungsvorträgen aus ihrer jeweiligen Disziplin heraus mit philosophischen und rechtlichen Problemstellungen der Menschenrechte und ihres Schutzes.
Der Einfluss unterschiedlich aggressiver Fusarium culmorum- und F. graminearum-Isolate auf die Schadbildausprägung bei Winterweizen sowie die Möglichkeit der Befallskontrolle mit Mykorrhiza Die durch Pilzarten der Gattung Fusarium spp. hervorgerufene partielle Taubährigkeit ist ein ernstes Problem im weltweiten Weizenanbau. Eine für die Schaderreger günstige feuchte Witterung zum Zeitpunkt der Weizenblüte in Kombination mit befallsfördernden agrotechnischen Maßnahmen löst immer wieder Epidemien aus. Hauptsächlich verursacht durch F. culmorum und F. graminearum führt eine Erkrankung zu Ertrags- und Qualitätseinbußen sowie zu einer Belastung des Ernteguts mit Mykotoxinen, die bereits in niedrigen Konzentrationen toxisch auf den tierischen und menschlichen Organismus wirken. Die am häufigsten vorkommenden Fusarium-Toxine in Weizen sind Deoxynivalenol (DON) und Zearalenon (ZEA). Isolate von F. graminearum- und F. culmorum können in ihrem DON- und ZEA-Bildungsvermögen und ihrem Potential, Nekrosen zu verursachen, stark variieren. In Laborversuchen (in vitro) wurden F. graminearum- und F. culmorum-Isolate hinsichtlich dieser Eigenschaften (hier als Aggressivität bezeichnet) charakterisiert und anschließend wurde im Feldversuch überprüft, ob die in vitro-ermittelte Aggressivität die Schadbildausprägung bei Weizenpflanzen beeinflusst. Nur im ersten Versuchsjahr, das durch hohe Niederschläge gekennzeichnet war, konnte ein Einfluss der Aggressivität und einer zusätzlichen Beregnung im Feldversuch nachgewiesen werden. Die als hoch-aggressiv eingestuften Fusarium-Isolate reduzierten unter dem Einfluss der Beregnung den Ertrag und das Tausendkorngewicht. Die Beregnung führte zu einer Erhöhung des Pilzwachstums und der DON- und ZEA-Produktion. Ein extrem trockener Sommer verhinderte die Infektion der Weizenpflanzen durch die beimpften Fusarium-Isolate und ein anschließendes Pilzwachstum in den Ähren im zweiten Versuchsjahr. Um den Befall von Weizenpflanzen mit Fusarium spp. vorzubeugen, stehen verschiedene pflanzenbauliche Maßnahmen zur Verfügung. Eine Möglichkeit stellen in diesem Zusammenhang die symbiotischen Mykorrhizapilze (MP) dar. Die Pilze sind in der Lage, Pflanzen zu stärken und antagonistisch auf pilzliche Schaderreger zu wirken. Um zu überprüfen, ob MP dazu beitragen könnten, den Befall von Weizenpflanzen mit Fusarium spp. niedrig zu halten, wurden Weizenpflanzen mit MP und Fusarium spp. beimpft und die Auswirkungen der Interaktionen auf die Weizenpflanzen in einem Klimakammer- und einem Feldversuch getestet. In der Klimakammer wurde eine Reduzierung des Fusarium-Befalls nachgewiesen. Die mykorrhizierten Weizenpflanzen wiesen außerdem höhere Photosyntheseraten, höhere Sprosstrockenmassen und mehr Ähren im Vergleich zu den nicht-mykorrhizierten und mit Fusarium-beimpften Weizenpflanzen auf. Insgesamt wurde durch die Mykorrhizierung der negative Einfluss von Fusarium spp. kompensiert. Im Freiland konnte kein Einfluss der MP auf Fusarium spp. beobachtet werden. Im ersten Versuchsjahr führte das Beimpfen der Weizenpflanzen mit MP zu höheren Wurzel- und Sprosstrockenmassen sowie zu höheren Tausendkorngewichten im Vergleich zu den mit Fusarium spp.-beimpften Weizenpflanzen. Im zweiten Versuchsjahr konnte dieses Ergebnis nicht wiederholt werden.
Cyber-physical systems achieve sophisticated system behavior exploring the tight interconnection of physical coupling present in classical engineering systems and information technology based coupling. A particular challenging case are systems where these cyber-physical systems are formed ad hoc according to the specific local topology, the available networking capabilities, and the goals and constraints of the subsystems captured by the information processing part. In this paper we present a formalism that permits to model the sketched class of cyber-physical systems. The ad hoc formation of tightly coupled subsystems of arbitrary size are specified using a UML-based graph transformation system approach. Differential equations are employed to define the resulting tightly coupled behavior. Together, both form hybrid graph transformation systems where the graph transformation rules define the discrete steps where the topology or modes may change, while the differential equations capture the continuous behavior in between such discrete changes. In addition, we demonstrate that automated analysis techniques known for timed graph transformation systems for inductive invariants can be extended to also cover the hybrid case for an expressive case of hybrid models where the formed tightly coupled subsystems are restricted to smaller local networks.
Extract-Transform-Load (ETL) tools are used for the creation, maintenance, and evolution of data warehouses, data marts, and operational data stores. ETL workflows populate those systems with data from various data sources by specifying and executing a DAG of transformations. Over time, hundreds of individual workflows evolve as new sources and new requirements are integrated into the system. The maintenance and evolution of large-scale ETL systems requires much time and manual effort. A key problem is to understand the meaning of unfamiliar attribute labels in source and target databases and ETL transformations. Hard-to-understand attribute labels lead to frustration and time spent to develop and understand ETL workflows. We present a schema decryption technique to support ETL developers in understanding cryptic schemata of sources, targets, and ETL transformations. For a given ETL system, our recommender-like approach leverages the large number of mapped attribute labels in existing ETL workflows to produce good and meaningful decryptions. In this way we are able to decrypt attribute labels consisting of a number of unfamiliar few-letter abbreviations, such as UNP_PEN_INT, which we can decrypt to UNPAID_PENALTY_INTEREST. We evaluate our schema decryption approach on three real-world repositories of ETL workflows and show that our approach is able to suggest high-quality decryptions for cryptic attribute labels in a given schema.
We investigate properties of quantum mechanical systems in the light of quantum information theory. We put an emphasize on systems with infinite-dimensional Hilbert spaces, so-called continuous-variable systems'', which are needed to describe quantum optics beyond the single photon regime and other Bosonic quantum systems. We present methods to obtain a description of such systems from a series of measurements in an efficient manner and demonstrate the performance in realistic situations by means of numerical simulations. We consider both unconditional quantum state tomography, which is applicable to arbitrary systems, and tomography of matrix product states. The latter allows for the tomography of many-body systems because the necessary number of measurements scales merely polynomially with the particle number, compared to an exponential scaling in the generic case. We also present a method to realize such a tomography scheme for a system of ultra-cold atoms in optical lattices. Furthermore, we discuss in detail the possibilities and limitations of using continuous-variable systems for measurement-based quantum computing. We will see that the distinction between Gaussian and non-Gaussian quantum states and measurements plays an crucial role. We also provide an algorithm to solve the large and interesting class of naturally occurring Hamiltonians, namely frustration free ones, efficiently and use this insight to obtain a simple approximation method for slightly frustrated systems. To achieve this goals, we make use of, among various other techniques, the well developed theory of matrix product states, tensor networks, semi-definite programming, and matrix analysis.
A point process is a mechanism, which realizes randomly locally finite point measures. One of the main results of this thesis is an existence theorem for a new class of point processes with a so called signed Levy pseudo measure L, which is an extension of the class of infinitely divisible point processes. The construction approach is a combination of the classical point process theory, as developed by Kerstan, Matthes and Mecke, with the method of cluster expansions from statistical mechanics. Here the starting point is a family of signed Radon measures, which defines on the one hand the Levy pseudo measure L, and on the other hand locally the point process. The relation between L and the process is the following: this point process solves the integral cluster equation determined by L. We show that the results from the classical theory of infinitely divisible point processes carry over in a natural way to the larger class of point processes with a signed Levy pseudo measure. In this way we obtain e.g. a criterium for simplicity and a characterization through the cluster equation, interpreted as an integration by parts formula, for such point processes. Our main result in chapter 3 is a representation theorem for the factorial moment measures of the above point processes. With its help we will identify the permanental respective determinantal point processes, which belong to the classes of Boson respective Fermion processes. As a by-product we obtain a representation of the (reduced) Palm kernels of infinitely divisible point processes. In chapter 4 we see how the existence theorem enables us to construct (infinitely extended) Gibbs, quantum-Bose and polymer processes. The so called polymer processes seem to be constructed here for the first time. In the last part of this thesis we prove that the family of cluster equations has certain stability properties with respect to the transformation of its solutions. At first this will be used to show how large the class of solutions of such equations is, and secondly to establish the cluster theorem of Kerstan, Matthes and Mecke in our setting. With its help we are able to enlarge the class of Polya processes to the so called branching Polya processes. The last sections of this work are about thinning and splitting of point processes. One main result is that the classes of Boson and Fermion processes remain closed under thinning. We use the results on thinning to identify a subclass of point processes with a signed Levy pseudo measure as doubly stochastic Poisson processes. We also pose the following question: Assume you observe a realization of a thinned point process. What is the distribution of deleted points? Surprisingly, the Papangelou kernel of the thinning, besides a constant factor, is given by the intensity measure of this conditional probability, called splitting kernel.
Entwicklung multi-stimuli sensitiver Materialien auf der Basis von flüssigkristallinen Elastomeren
(2012)
Aufgrund der zunehmenden technischen Ansprüche der Gesellschaft sind sich aktiv bewegende Polymere in den Mittelpunkt aktueller Forschung gerückt. Diese spielen bei Anwen-dungen im Bereich von künstlichen Muskeln und Implantaten für die minimal invasive Chirurgie eine wichtige Rolle. Vor allem Formänderungs- und Formgedächtnispolymere stehen dabei im wissenschaftlichen Fokus. Während die kontaktlose Deformation einer permanenten Form in eine temporäre metastabile Form, charakteristisch für Formände-rungspolymere ist, kann bei Formgedächtnis-Materialien die temporäre Form, aufgrund der Ausbildung reversibler, temporärer Netzpunkte, fixiert werden. Ein Polymermaterial, das eine Kombination beider Funktionen aufweist würde zu einem Material führen welches kontaktlos in eine temporäre Form deformiert und in dieser fixiert werden kann. Zusätzlich würde aufgrund der kontaktlosen Deformation die Reversibilität dieser Funktion gewähr-leistet sein. Ein solches Material ist bislang noch nicht beschrieben worden. In dieser Arbeit wird untersucht, ob durch die Kopplung zweier separat schaltbarer, be-kannter Funktionen eine neue schaltbare Funktion erzielt werden kann. Daher wurden multi-stimuli sensitive Materialien entwickelt die eine Kopplung des Formänderungs- und des Formgedächtniseffektes aufweisen. Dazu wurden zwei Konzepte entwickelt, die sich hinsichtlich der Reihenfolge der verwendeten Stimuli unterscheiden. Im ersten Konzept wurden flüssigkristalline Elastomere basie-rend auf Azobenzenderivaten aufgebaut und hinsichtlich der Kombination des licht-induzierten Formänderungseffektes mit dem thermisch-induzierten Formgedächtniseffekt untersucht. Diese orientierten Netzwerke weisen oberhalb der Glasübergangstemperatur (Tg) eine kontaktlose Verformung (Biegung) durch Bestrahlung mit UV-Licht des geeigneten Wellenlängenbereichs auf, wodurch eine temporäre Form erhalten wurde. Hierbei spielt der Vernetzungsgrad eine entscheidende Rolle bezüglich der Ausprägung dieser Biegung. Eine fixierte, temporäre Form konnte durch gleichzeitiges Abkühlen des Materials unterhalb von Tg während der Bestrahlung mit UV-Licht erhalten werden. Nach erneutem Aufheizen über Tg konnte die Originalform wiederhergestellt werden. Dieser Vorgang konnte reversibel durchgeführt werden. Damit wurde gezeigt, dass eine neue schaltbare Funktion erzielt wurde, die auf der Kopplung des lichtinduzierten Formänderungs- mit dem thermisch-induzierten Formgedächtniseffekt basiert. Die Abstimmung der einzelnen Funktion wird in diesem Konzept über die Morphologie des Systems gewährleistet. Diese neue Funktion ermöglicht eine kontaktlose Deformation des Materials in eine temporäre Form, welche fixiert werden kann. Im zweiten Konzept wurde eine Kopplung des thermisch induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffekt angestrebt. Um dies zu realisieren wurden nematisch, flüssigkristalline Hauptkettenelastomere (NMC-LCE) entwickelt, die eine nied-rige Übergangstemperatur der nematischen in die isotrope Phase (TNI), als auch einen aus-geprägten thermisch induzierten Formänderungseffekt aufweisen. Zusätzlich wurde eine photosensitive Schicht aufgebaut, die Cinnamylidenessigsäuregruppen in der Seitenkette eines Polysiloxanrückgrates aufweist. Die Reversibilität der photoinduzierten [2+2]-Cycloaddition konnte für dieses photosensitive Polymer beobachtet werden, wodurch die-ses Polymersystem in der Lage ist reversible temporäre Netzpunkte, aufgrund der Bestrah-lung mit UV-Licht, auszubilden. Die kovalente Anbindung der photosensitiven Schicht an die Oberfläche des flüssigkristallinen Kerns wurde erfolgreich durchgeführt, wodurch ein Multi-Komponenten-System aufgebaut wurde. Die Kombination des thermisch-induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffektes wurde anhand dieses Systems untersucht. Während die Einzelkomponenten die erforderliche Funktion zeigten, ist hier noch Arbeit in der Abstimmung beider Strukturen zu leisten. Insbesondere die Variation der Schichtdicken beider Komponenten steht im Fokus zukünftiger Arbeiten. In dieser Arbeit wurde durch die Kopplung von zwei separat schaltbaren, bekannten Funktionen eine neue schaltbare Funktion erzielt. Dies setzt voraus, dass die Einzelkomponenten hinsichtlich einer Funktion schaltbar sind und in einem Material integriert werden können. Des Weiteren müssen die beiden Funktionen mit unterschiedlichen Stimuli geschaltet werden. Ein wichtiger Schritt bei der Kopplung der Funktionen, ist die Abstimmung der beiden Komponenten. Dies kann über die Variation der Morphologie oder der Struktur erzielt werden. Anhand der Vielzahl der vorhandenen stimuli-sensitiven Materialien sind verschiedene Kopplungsmöglichkeiten vorhanden. Demnach wird erwartet, dass auf diesem Gebiet weitere neue Funktionen erzielt werden können.
Die Tötung Osama bin Ladens durch ein US-Sonderkommando Anfang Mai 2011, wenige Monate vor dem zehnten Jahrestag der verheerenden Terroranschläge vom 11. September, erhielt ein großes Maß an medialer Aufmerksamkeit. Der Tod des Mannes, der für die Terroranschläge verantwortlich gemacht wurde, führte zu einer erneuten Auseinandersetzung mit diesem Ereignis und dessen individuellen und globalen Folgen. Ausgangspunkt der Untersuchung dieses Pressediskurses ist die Annahme, dass eine solche gedankliche und sprachliche Auseinandersetzung, wie sie in der Presse kreiert und reflektiert wird, insbesondere auch von Metaphern bestimmt wird. Die Untersuchung stützt sich auf die Erkenntnisse kognitiver Metapherntheorien. Sie orientiert sich aber vor allem auch an jüngeren Untersuchungen innerhalb der Metaphernforschung, die speziell die sprachliche Dimension der Metapher wieder mehr in den Vordergrund rücken. Der Arbeit liegt daher ein multidimensionales Verständnis der Metapher zugrunde. Die kognitive Funktion der Metapher ermöglicht das Begreifbarmachen abstrakter bzw. unbekannter Phänomene. Metaphern können aber zugleich auch Indikatoren für die bewusste wie auch unbewusste Bewertung von Ereignissen, Handlungen und Personen sein. Die Untersuchung verfolgt einen vergleichenden Ansatz, der auf der Grundlage eines Arbeitskorpus aus US-amerikanischen und französischen Pressetexten zur Tötung bin Ladens den Metapherngebrauch in den beiden Ländern anhand ausgewählter Themenaspekte gegenüberstellt. Ziel der Untersuchung ist es, Gemeinsamkeiten und Unterschiede zwischen den beiden Landespressen zu identifizieren und diesbezüglich mögliche Interpretationen anzugeben. Dabei wird der Sprachgebrauch im Terror-Diskurs nach 9/11 einer kritischen Betrachtung unterzogen, um ein Bewusstsein für möglicherweise unbewusste metaphorische Konzeptualisierungen zu entwickeln. Im Vergleich des Metapherngebrauchs in der US-amerikanischen und französischen Presse werden deutliche Gemeinsamkeiten festgestellt. Die analysierten Unterschiede sind häufig sprachlich bedingt. Teilweise können sie aber auch im Hinblick auf Differenzen in der Positionierung der beiden Länder in Bezug auf bin Ladens Tötung interpretiert werden. Die weitgehende Übereinstimmung in den Metaphern lässt sich zum einen auf die Nähe der beiden Sprachen, zum anderen auf den ähnlichen politischen Hintergrund der beiden westlichen Länder zurückführen. Darüber hinaus wird die Hypothese aufgestellt, dass der verstärkt stattfindende internationale Austausch von Nachrichten, vor allem über Presseagenturen, auch zunehmend zu einer Globalisierung auf dem Gebiet der Metapher führt.
Data dependencies, or integrity constraints, are used to improve the quality of a database schema, to optimize queries, and to ensure consistency in a database. In the last years conditional dependencies have been introduced to analyze and improve data quality. In short, a conditional dependency is a dependency with a limited scope defined by conditions over one or more attributes. Only the matching part of the instance must adhere to the dependency. In this paper we focus on conditional inclusion dependencies (CINDs). We generalize the definition of CINDs, distinguishing covering and completeness conditions. We present a new use case for such CINDs showing their value for solving complex data quality tasks. Further, we define quality measures for conditions inspired by precision and recall. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. Our algorithms choose not only the condition values but also the condition attributes automatically. Finally, we show that our approach efficiently provides meaningful and helpful results for our use case.
Program behavior that relies on contextual information, such as physical location or network accessibility, is common in today's applications, yet its representation is not sufficiently supported by programming languages. With context-oriented programming (COP), such context-dependent behavioral variations can be explicitly modularized and dynamically activated. In general, COP could be used to manage any context-specific behavior. However, its contemporary realizations limit the control of dynamic adaptation. This, in turn, limits the interaction of COP's adaptation mechanisms with widely used architectures, such as event-based, mobile, and distributed programming. The JCop programming language extends Java with language constructs for context-oriented programming and additionally provides a domain-specific aspect language for declarative control over runtime adaptations. As a result, these redesigned implementations are more concise and better modularized than their counterparts using plain COP. JCop's main features have been described in our previous publications. However, a complete language specification has not been presented so far. This report presents the entire JCop language including the syntax and semantics of its new language constructs.
Typische assoziative Verdicker für wässrige Systeme basieren auf linearen, doppelt hydrophob endmodifizierten Poly(ethylenglykolen) (PEGs). Diese Polymere aggregieren aufgrund ihrer Struktur in wässriger Lösung und bilden ein Netzwerk aus verbrückten Polymer-Mizellen. Dabei kann ein Polymer-Molekül maximal zwei Mizellen miteinander verbinden. Bisher ist unklar, wie die Anzahl der Endgruppen eines verzweigten, mehrfach hydrophob endmodifizierten hydrophilen Polymers die Struktur und Dynamik solcher Netzwerke beeinflusst. Die Synthese verzweigter Polymere auf PEG-Basis erfolgt mittels lebender ionischer Polymerisation und ist experimentell aufwändig. Das Einführen hydrophober Endgruppen erfordert zusätzliche Synthese-Schritte. In dieser Arbeit wurden hydrophile Sternpolymere mit hydrophoben Endgruppen in einem Schritt hergestellt. Dazu wurde die Technik der radikalischen Polymerisation unter Kettenübertragung durch reversible Addition und anschließende Fragmentierung (reversible addition-fragmentation chain transfer, RAFT) genutzt. Die Synthese der Sternpolymere erfolgte von einem multifunktionalen Kern, der die R-Gruppe der RAFT-Kettenüberträger (chain transfer agents, CTAs) bildete. Die dazu benötigten CTAs wurden so konzipiert, dass mit ihrer Hilfe sowohl die Anzahl der Arme des Sternpolymers (von 2 bis 4), als auch die Länge der hydrophoben Endgruppe (C4, C12, C18) variiert werden konnte. Der große Vorteil der RAFT-Polymerisation ist, dass sie viele polare Monomere für die Synthese der hydrophilen Arme des Sternpolymers toleriert. In dieser Arbeit wurden als Modell-Monomere Oligo(ethylenglykol)methylether-acrylat (OEGA) und N,N-Dimethylacrylamid (DMA) eingesetzt. Beide Monomere bilden nicht-ionische hydrophile Polymere. Poly(OEGA) ist ein Kammpolymer, das auf PEG basiert. Poly(DMA) besitzt dagegen eine deutlich kompaktere Struktur. Die erhaltenen amphiphilen Sternpolymere wurden umfassend molekular charakterisiert. Die Molmassen wurden mit verschiedenen GPC-Systemen bestimmt und der Grad der Endgruppenfunktionalisierung wurde mittels UV/Vis- und 1H-NMR-Spektroskopie überprüft. Die Polymerisation von OEGA zeigt mit den CTAs einige Charakteristika der Polymerisation mit reversibler Deaktivierung (RDRP, auch „kontrollierte radikalische Polymerisation“), wird aber durch Kettenübertragung zum Monomer bzw. Polymer gestört. Diese Nebenreaktion ist auf die Struktur des Monomers als Oligoether zurückzuführen. Bei allen untersuchten Polymerisationen von DMA mit den multifunktionalen CTAs steigt die Molmasse linear mit dem Umsatz. Die erhaltenen Polymere zeigen durchweg monomodale und enge Molmassenverteilungen (PDI ≤ 1,2). Die Molmassen lassen sich in einem weiten Bereich von 25 kg/mol bis 150 kg/mol einstellen und die Endgruppen der Polymere bleiben zu 90 % erhalten. Während die Polymerisation von DMA sowohl mit den di- als auch den trifunktionalen CTAs innerhalb von 3 h zu quantitativen Umsätzen verläuft, wird der quantitative Umsatz des Monomers bei der Polymerisation mit tetrafunktionalen CTAs erst nach 4 h erreicht. Diese Verzögerung ist auf eine Retardierung in der Anfangsphase der Polymerisation zurückzuführen, die sich aus der besonderen Struktur der tetrafunktionalen CTAs erklärt. Auf dem System zur Polymerisation von DMA aufbauend ließen sich Gradienten-Block-Copolymere in Eintopfreaktionen herstellen. Dazu wurde nach Erreichen des quantitativen Umsatzes von DMA ein zweites Monomer zur Reaktionsmischung gegeben. Mit Ethylacrylat (EtA) wurden so lineare amphiphile symmetrische Triblock-Copolymere erhalten. Dabei wurde die Länge des hydrophoben Blocks durch unterschiedliche Mengen an EtA variiert. Mit N,N-Diethylacrylamid (DEA) wurden lineare symmetrische Triblock-Copolymere sowie 3-Arm Stern-Diblock-Copolymere hergestellt, die über einen thermisch schaltbaren zweiten Block verfügen. Bei diesen Polymeren lässt sich die Länge des hydrophoben Teils in situ durch Veränderung der Temperatur variieren. Das Verhalten der amphiphilen Sternpolymere in wässriger Lösung und in Mikroemulsion wurde im Rahmen einer Kooperation an der TU Berlin mit Hilfe von Kleinwinkel-Neutronenstreuung (SANS), dynamischer Lichtstreuung (DLS) und Rheologie untersucht. Die Polymere wirken durch Assoziation der hydrophoben Endgruppen als effektive Verdicker sowohl allein in wässriger Lösung als auch in Mikroemulsion. Die Struktur des gebildeten Netzwerks hängt dabei von der Konzentration des Polymers in der Lösung und der Länge der Endgruppe (Hydrophobie) ab. Die dynamischen Eigenschaften der Lösungen werden außerdem durch die Anzahl der Arme der Polymere bestimmt.