TY - BOOK A1 - Katagi, Jun T1 - Kommunale Gebietsreform und Dezentralisierung : Vergleich zwischen Japan und Deutschland ; Welches Land liegt weiter vorn? T1 - Municipal territorial reform and decentralizationMunicipal territorial reform and decentralization : comparison between Japan and Germany ; Which country is further forward? N2 - In Japan wurden die sogenannten „Heisei no Daigappei“ (Große kommunale Gebietsreform) im Zeitraum von 1999 bis 2006 durchgeführt. Im Ergebnis hat sich die Anzahl der Gemeinden von 3.232 auf 1.727 – also um die Hälfte – reduziert. Auch in den neuen Bundesländern in Deutschland sind in den letzten Jahren wieder kommunale Gebietsreformen (Gemeindefusionen) durchgeführt worden. Trotzdem gibt es in Deutschland noch etwa 12.000 Gemeinden. Im Vergleich mit Japan ist die Gemeindegröße also deutlich geringer. Mit dem vorliegenden Beitrag sollen die Reformunterschiede zwischen Deutschland und Japan erklärt werden. Gefragt wird nach der „Richtung“ und der „Stärke“ der verschiedenen Vektoren (Einflussfaktoren) im Reformprozess der Gemeindefusionen. Besonders reformfördernd wirken in Japan die Vektoren Dezentralisierungsdruck und öffentliche Finanzkrise. Die Unterschiede zwischen Japan und Deutschland beim Vektor demographischer Wandel konnten nicht betrachtet werden. In Deutschland sind für den Reformfortschritt vor allem die Vektoren bürgernahe Demokratie, örtliche Verbundenheit, die Existenz des Ehrenamtsprinzips sowie die Ergänzungsfunktion der Kreise und Ämter ausschlaggebend. Insgesamt betrachtet wirken die Vektoren in Japan stärker reformfördernd als in Deutschland. Deshalb sind im Reformergebnis die Gebietsstrukturen der Gemeinden in Japan derzeit größer als in Deutschland. N2 - The so called “Heisei no Daigappei” (Great Merger Movement in Japan) in effect from 1999 to 2006, has reduced the numbers of municipalities from 3,229 to half, 1,727. Recently also in Germany, the “territorial Reform” including municipal mergers has been conducted, especially in east Germany. Nevertheless, there are yet about 12 Thousand municipalities in Germany, so their size is far smaller than those in Japan. With regards to the promoting or restraining vectors from some causes, this book tries to explore the reason why such differences exist between Germany and Japan. As the promoting vectors, the awareness of necessity towards the Decentralization Reform as well as of severity of the Local Financial Situations are stronger in Japan than in Germany. The differences on the critical awareness about the Population Decline and Aging could not be admitted. In contradiction to this, because of the greater consciousness for Democracy near to the citizens, the more strength of Local Identity, the existence and the big rolls of the Honorary Office as well as the existence of Supplementary Functions by County, German has the more restrictive vectors against the municipal mergers than Japan. My final conclusion is that the vectors for Municipal Merger are as a whole stronger and as the result the Municipal Mergers have been conducted more forwardly in Japan than Germany. T3 - KWI-Gutachten - 7 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57864 SN - 978-3-86956-166-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Morris, Penelope J. A1 - Salt, Carina A1 - Raila, Jens A1 - Brenten, Thomas A1 - Kohn, Barbara A1 - Schweigert, Florian J. A1 - Zentek, Jürgen T1 - Safety evaluation of vitamin A in growing dogs T2 - Potsprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - The safe upper limit for inclusion of vitamin A in complete diets for growing dogs is uncertain, with the result that current recommendations range from 5.24 to 104.80 mu mol retinol (5000 to 100 000 IU vitamin A)/4184 kJ (1000 kcal) metabolisable energy (ME). The aim of the present study was to determine the effect of feeding four concentrations of vitamin A to puppies from weaning until 1 year of age. A total of forty-nine puppies, of two breeds, Labrador Retriever and Miniature Schnauzer, were randomly assigned to one of four treatment groups. Following weaning at 8 weeks of age, puppies were fed a complete food supplemented with retinyl acetate diluted in vegetable oil and fed at 1ml oil/100 g diet to achieve an intake of 5.24, 13.10, 78.60 and 104.80 mu mol retinol (5000, 12 500, 75 000 and 100 000 IU vitamin A)/4184 kJ (1000 kcal) ME. Fasted blood and urine samples were collected at 8, 10, 12, 14, 16, 20, 26, 36 and 52 weeks of age and analysed for markers of vitamin A metabolism and markers of safety including haematological and biochemical variables, bone-specific alkaline phosphatase, cross-linked carboxyterminal telopeptides of type I collagen and dual-energy X-ray absorptiometry. Clinical examinations were conducted every 4 weeks. Data were analysed by means of a mixed model analysis with Bonferroni corrections for multiple endpoints. There was no effect of vitamin A concentration on any of the parameters, with the exception of total serum retinyl esters, and no effect of dose on the number, type and duration of adverse events. We therefore propose that 104.80 mu mol retinol (100 000 IU vitamin A)/4184 kJ (1000 kcal) is a suitable safe upper limit for use in the formulation of diets designed for puppy growth. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 686 KW - puppies KW - dogs KW - Retinol KW - Retinyl esters KW - vitamin A Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-414929 IS - 686 ER - TY - GEN A1 - Caliendo, Marco A1 - Hogenacker, Jens T1 - The German labor market after the Great Recession BT - successful reforms and future challenges T2 - Postprints der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe N2 - The reaction of the German labor market to the Great Recession 2008/09 was relatively mild – especially compared to other countries. The reason lies not only in the specific type of the recession – which was favorable for the German economy structure – but also in a series of labor market reforms initiated between 2002 and 2005 altering, inter alia, labor supply incentives. However, irrespective of the mild response to the Great Recession, there are a number of substantial future challenges the German labor market will soon have to face. Female labor supply still lies well below that of other countries and a massive demographic change over the next 50 years will have substantial effects on labor supply as well as the pension system. In addition, due to a skill-biased technological change over the next decades, firms will face problems of finding employees with adequate skills. The aim of this paper is threefold. First, we outline why the German labor market reacted in such a mild fashion, describe current economic trends of the labor market in light of general trends in the European Union, and reveal some of the main associated challenges. Thereafter, the paper analyzes recent reforms of the main institutional settings of the labor market which influence labor supply. Finally, based on the status quo of these institutional settings, the paper gives a brief overview of strategies to combat adequately the challenges in terms of labor supply and to ensure economic growth in the future. T3 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe - 129 KW - unemployment KW - labor force participation KW - Labor supply KW - benefit systems KW - public policy Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-435195 SN - 1867-5808 IS - 129 ER - TY - GEN A1 - Adam, Jos J. A1 - Bovend'Eerdt, Thamar J. H. A1 - Dooren, Fleur E. P. van A1 - Fischer, Martin H. A1 - Pratt, Jay T1 - The closer the better BT - hand proximity dynamically affects letter recognition accuracy T2 - Postprints der Universität Potsdam : Humanwissenschaftliche Reihe N2 - A growing literature has suggested that processing of visual information presented near the hands is facilitated. In this study, we investigated whether the near-hands superiority effect also occurs with the hands moving. In two experiments, participants performed a cyclical bimanual movement task requiring concurrent visual identification of briefly presented letters. For both the static and dynamic hand conditions, the results showed improved letter recognition performance with the hands closer to the stimuli. The finding that the encoding advantage for near-hand stimuli also occurred with the hands moving suggests that the effect is regulated in real time, in accordance with the concept of a bimodal neural system that dynamically updates hand position in external space. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 607 KW - perception and action Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432963 SN - 1866-8364 IS - 607 SP - 1533 EP - 1538 ER - TY - JOUR A1 - Askin, Elif A1 - Emmerich-Fritsche, Angelika A1 - Goppel, Anna A1 - Hemmerling, Mario A1 - Kapaun, Nina A1 - Lohmann, Georg A1 - Müller, Sebastian A1 - Niederberger, Andreas A1 - Pabel, Katharina A1 - Putzer, Max A1 - Roth-Isigkeit, David A1 - Seidler, Christoph A1 - Tiedemann, Paul A1 - Vasel, J. Justus A1 - Weiß, Norman T1 - MenschenRechtsMagazin : Informationen | Meinungen | Analysen N2 - Aus dem Inhalt: - Themenschwerpunkt: Menschenrechte und Staatsbürgerschaft - Gibt es Menschenrechte ohne Bürgerschaft? - Menschenwürde und Staatsbürgerschaft - Die General Comments des Menschenrechtsausschusses der Vereinten Nationen – ein Beitrag zur Rechtsentwicklung im Völkerrecht - Politische Selbstbestimmung als Menschenrecht und im Völkerrecht - Libyen und der von außen unterstützte Systemwechsel T3 - MenschenRechtsMagazin : MRM ; Informationen, Meinungen, Analysen - 17.2012/2 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62122 SN - 1434-2820 VL - 17 IS - 2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kramer, Ansgar T1 - Organisationale Fähigkeiten des öffentlichen Sektors : zur Übertragbarkeit der Capability Based View auf die Öffentliche Verwaltung T1 - Organizational capabilties in the public sector : In how far is the capability based view a fruitful approach to public administration? N2 - Die Arbeit geht der Frage nach inwiefern die Capability Based View (CBV) einen Erklärungsbeitrag für die Verwaltungsforschung leisten kann. Dazu unterzieht sie die CBV einer kritischen Betrachtung und benennt die wichtigsten Merkmale dieses – nach wie vor unscharfen – Konzepts mit Bezug zum öffentlichen Sektor. Sie zeigt Parallelen von Ansätzen und Ergebnissen der Verwaltungsforschung zur CBV auf und stellt ihre generelle Verwendbarkeit in diesem Kontext fest. Ebenso diagnostiziert sie jedoch signifikanten Verbesserungsbedarf hinsichtlich der Klarheit des Konzepts. Eine Fokussierung auf den öffentlichen Sektor verspricht eher eine Konsolidierung und Weiterentwicklung der CBV als deren Erforschung im Privatsektor, da das multidimensionale und mehrstufige Verständnis von Performance im öffentlichen Sektor deutlich besser zur Wirkungslogik der CBV passt. Die Arbeit schließt mit einer Forschungsagenda, welche die wichtigsten Fragen zur Weiterentwicklung aufzeigt, und dem Appell für mehr qualitative empirische Forschung in diesem neuen Feld des Public Managements. N2 - The paper explores the explanatory potential of the Capability Based View (CBV) for research on public administrations. It does so by re-examining the – up till now – rather vague concept and sharpening it with a focus on the public sector. Parallels are drawn between the central propositions of the CBV and findings in public administration research. The focus lies on the link between capabilities and performance. Here, special attention is paid to the nexus between capabilities and performance, which originally fueled the interest in the CBV. It is concluded that the CBV is generally a fruitful approach for public administration research, yet with significant shortcomings in respect to its consolidation and clarity. The explanatory power of the CBV could actually be enhanced by applying it to the public sector: the multidimensional and -level understanding of performance in public sector organizations seems to match the propositions of the CBV far better than the one commonly used to evaluate performance in the private sector. The paper concludes with a research agenda summarizing the most important questions and a call for more qualitative empirical research in this emerging field within public management. T3 - Schriftenreihe für Public und Nonprofit Management - 11 KW - organizational capabilities KW - dynamic capabilities KW - Fähigkeiten KW - öffentliche Verwaltung KW - organizational capabilities KW - dynamic capabilities KW - public management Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57298 ER - TY - THES A1 - Kleinwächter, Kai T1 - Die Anreizregulierung in der Elektrizitätswirtschaft Deutschlands BT - Positionen der staatlichen sowie privaten Akteure N2 - Die deutsche Energiewirtschaft befindet sich im Umbruch. Ein neuer staatlicher Ordnungsrahmen wurde geschaffen. Zentrales Element für die Regulierung der Stromnetze ist die „Anreizregulierung“ ‒ simulierter Wettbewerb, zentral gesteuert von der Bundesnetzagentur, um missbräuchliches Verhalten auszuschließen. Ausgehend von der Entwicklung des Energiemarktes seit dem 19. Jahrhundert analysiert Kai Kleinwächter die unterschiedlichen Interessen der Bundes- und Länderregierungen, der Stadtwerke sowie der großen Energiekonzerne bei der Einführung dieses Steuerungsinstrumentes. Bewertet werden auch die politischen Machtpotenziale der Akteure sowie ihr Einfluss auf den Gesetzgebungsprozess. T3 - Horizonte 21 : Umwelt · Energie · Sicherheit - 4 KW - Deutschland KW - Energiewirtschaft KW - Wirtschaftspolitik KW - Anreizregulierung KW - Stromnetze KW - Germany KW - economic policy KW - energy sector KW - incentive regulation KW - national grid Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47957 SN - 978-3-86956-121-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Draisbach, Uwe A1 - Naumann, Felix A1 - Szott, Sascha A1 - Wonneberg, Oliver T1 - Adaptive windows for duplicate detection N2 - Duplicate detection is the task of identifying all groups of records within a data set that represent the same real-world entity, respectively. This task is difficult, because (i) representations might differ slightly, so some similarity measure must be defined to compare pairs of records and (ii) data sets might have a high volume making a pair-wise comparison of all records infeasible. To tackle the second problem, many algorithms have been suggested that partition the data set and compare all record pairs only within each partition. One well-known such approach is the Sorted Neighborhood Method (SNM), which sorts the data according to some key and then advances a window over the data comparing only records that appear within the same window. We propose several variations of SNM that have in common a varying window size and advancement. The general intuition of such adaptive windows is that there might be regions of high similarity suggesting a larger window size and regions of lower similarity suggesting a smaller window size. We propose and thoroughly evaluate several adaption strategies, some of which are provably better than the original SNM in terms of efficiency (same results with fewer comparisons). N2 - Duplikaterkennung beschreibt das Auffinden von mehreren Datensätzen, die das gleiche Realwelt-Objekt repräsentieren. Diese Aufgabe ist nicht trivial, da sich (i) die Datensätze geringfügig unterscheiden können, so dass Ähnlichkeitsmaße für einen paarweisen Vergleich benötigt werden, und (ii) aufgrund der Datenmenge ein vollständiger, paarweiser Vergleich nicht möglich ist. Zur Lösung des zweiten Problems existieren verschiedene Algorithmen, die die Datenmenge partitionieren und nur noch innerhalb der Partitionen Vergleiche durchführen. Einer dieser Algorithmen ist die Sorted-Neighborhood-Methode (SNM), welche Daten anhand eines Schlüssels sortiert und dann ein Fenster über die sortierten Daten schiebt. Vergleiche werden nur innerhalb dieses Fensters durchgeführt. Wir beschreiben verschiedene Variationen der Sorted-Neighborhood-Methode, die auf variierenden Fenstergrößen basieren. Diese Ansätze basieren auf der Intuition, dass Bereiche mit größerer und geringerer Ähnlichkeiten innerhalb der sortierten Datensätze existieren, für die entsprechend größere bzw. kleinere Fenstergrößen sinnvoll sind. Wir beschreiben und evaluieren verschiedene Adaptierungs-Strategien, von denen nachweislich einige bezüglich Effizienz besser sind als die originale Sorted-Neighborhood-Methode (gleiches Ergebnis bei weniger Vergleichen). T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 49 KW - Informationssysteme KW - Datenqualität KW - Datenintegration KW - Duplikaterkennung KW - Duplicate Detection KW - Data Quality KW - Data Integration KW - Information Systems Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53007 SN - 978-3-86956-143-1 SN - 1613-5652 SN - 2191-1665 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bilkay, Taybet T1 - Thiophen und Benzodithiophen basierte organische Halbleiter für aus Lösung prozessierbare Feldeffekttransistoren T1 - Thiophene and benzodithiophene based organic semiconductors for solution processable field effect transistors N2 - Diese Arbeit befasst sich mit der Synthese und Charakterisierung von organolöslichen Thiophen und Benzodithiophen basierten Materialien und ihrer Anwendung als aktive lochleitende Halbleiterschichten in Feldeffekttransistoren. Im ersten Teil der Arbeit wird durch eine gezielte Modifikation des Thiophengrundgerüstes eine neue Comonomer-Einheit für die Synthese von Thiophen basierten Copolymeren erfolgreich dargestellt. Die hydrophoben Hexylgruppen in der 3-Position des Thiophens werden teilweise durch hydrophile 3,6-Dioxaheptylgruppen ersetzt. Über die Grignard-Metathese nach McCullough werden statistische Copolymere mit unterschiedlichen molaren Anteilen vom hydrophoben Hexyl- und hydrophilem 3,6-Dioxaheptylgruppen 1:1 (P-1), 1:2 (P-2) und 2:1 (P-3) erfolgreich hergestellt. Auch die Synthese eines definierten Blockcopolymers BP-1 durch sequentielle Addition der Comonomere wird realisiert. Optische und elektrochemische Eigenschaften der neuartigen Copolymere sind vergleichbar mit P3HT. Mit allen Copolymeren wird ein charakteristisches Transistorverhalten in einem Top-Gate/Bottom-Kontakt-Aufbau erhalten. Dabei werden mit P-1 als die aktive Halbleiterschicht im Bauteil, PMMA als Dielektrikum und Silber als Gate-Elektrode Mobilitäten von bis zu 10-2 cm2/Vs erzielt. Als Folge der optimierten Grenzfläche zwischen Dielektrikum und Halbleiter wird eine Verbesserung der Luftstabilität der Transistoren über mehrere Monate festgestellt. Im zweiten Teil der Arbeit werden Benzodithiophen basierte organische Materialien hergestellt. Für die Synthese der neuartigen Benzodithiophen-Derivate wird die Schlüsselverbindung TIPS-BDT in guter Ausbeute dargestellt. Die Difunktionalisierung von TIPS-BDT in den 2,6-Positionen über eine elektrophile Substitution liefert die gewünschten Dibrom- und Distannylmonomere. Zunächst werden über die Stille-Reaktion alternierende Copolymere mit alkylierten Fluoren- und Chinoxalin-Einheiten realisiert. Alle Copolymere zeichnen sich durch eine gute Löslichkeit in gängigen organischen Lösungsmitteln, hohe thermische Stabilität und durch gute Filmbildungseigenschaften aus. Des Weiteren sind alle Copolymere mit HOMO Lagen höher als -6.3 eV, verglichen mit den Thiophen basierten Copolymeren (P-1 bis P-3), sehr oxidationsstabil. Diese Copolymere zeigen amorphes Verhalten in den Halbleiterschichten in OFETs auf und es werden Mobilitäten bis zu 10-4 cm2/Vs erreicht. Eine Abhängigkeit der Bauteil-Leistung von dem Zinngehalt-Rest im Polymer wird nachgewiesen. Ein Zinngehalt von über 0.6 % kann enormen Einfluss auf die Mobilität ausüben, da die funktionellen SnMe3-Gruppen als Fallenzustände wirken können. Alternativ wird das alternierende TIPS-BDT/Fluoren-Copolymer P-5-Stille nach der Suzuki-Methode polymerisiert. Mit P-5-Suzuki als die aktive organische Halbleiterschicht im OFET wird die höchste Mobilität von 10-2 cm2/Vs erzielt. Diese Mobilität ist somit um zwei Größenordnungen höher als bei P-5-Stille, da die Fallenzustände in diesem Fall minimiert werden und folglich der Ladungstransport verbessert wird. Sowohl das Homopolymer P-12 als auch das Copolymer mit dem aromatischen Akzeptor Benzothiadiazol P-9 führen zu schwerlöslichen Polymeren. Aus diesem Grund werden einerseits Terpolymere aus TIPS-BDT/Fluoren/BTD-Einheiten P-10 und P-11 aufgebaut und andererseits wird versucht die TIPS-BDT-Einheit in die Seitenkette des Styrols einzubringen. Mit der Einführung von BTD in die Hauptpolymerkette werden insbesondere die Absorptions- und die elektrochemischen Eigenschaften beeinflusst. Im Vergleich zu dem TIPS-BDT/Fluoren-Copolymer reicht die Absorption bis in den sichtbaren Bereich und die LUMO Lage wird zu niederen Werten verschoben. Eine Verbesserung der Leistung in den Bauteilen wird jedoch nicht festgestellt. Die erfolgreiche erstmalige Synthese von TIPS-BDT als Seitenkettenpolymer an Styrol P-13 führt zu einem löslichen und amorphen Polymer mit vergleichbaren Mobilitäten von Styrol basierten Polymeren (µ = 10-5 cm2/Vs) im OFET. Ein weiteres Ziel dieser Arbeit ist die Synthese von niedermolekularen organolöslichen Benzodithiophen-Derivaten. Über Suzuki- und Stille-Reaktionen ist es erstmals möglich, verschiedenartige Aromaten über eine σ-Bindung an TIPS-BDT in den 2,6-Positionen zu knüpfen. Die UV/VIS-Untersuchungen zeigen, dass die Absorption durch die Verlängerung der π-Konjugationslänge zu höheren Wellenlängen verschoben wird. Darüber hinaus ist es möglich, thermisch vernetzbare Gruppen wie Allyloxy in das Molekülgerüst einzubauen. Das Einführen von F-Atomen in das Molekülgerüst resultiert in einer verstärkten Packungsordnung im Fluorbenzen funktionalisiertem TIPS-BDT (SM-4) im Festkörper mit sehr guten elektronischen Eigenschaften im OFET, wobei Mobilitäten bis zu 0.09 cm2/Vs erreicht werden. N2 - This work describes the synthesis and characterization of organo-soluble thiophene and benzodithiophene based materials and their application as hole-transporting active semiconductor layers in field effect transistors. The first part of this work introduces the targeted modification of the thiophene base unit, obtaining new comonomers for the corresponding copolymers. The hydrophobic hexyl groups in the 3-position of thiophene are partially replaced by hydrophilic 3,6-Dioxaheptyl groups. Using the Grignard metathesis developed by McCullough, statistical copolymers with different molar ratios of hydrophobic and hydrophilic side groups 1:1 (P-1), 1:2 (P-2) and 2:1 (P-3) are synthesized. Furthermore a defined blockcopolymer is synthesized by a sequential comonomer addition. Optical and electrochemical properties of the novel copolymers are comparable to the homopolymer P3HT. All copolymers show clearly transistor characteristics in a top-gate/bottom-contact configuration. Devices with P-1 as active semiconductor layer, PMMA as dielectric and silver as the gate electrode show mobilities up to 10-2 cm2/Vs. As a result of the optimized semiconductor and dielectric interface an improvement of the air stability of the transistors is observed for several months. The second part describes the synthesis of benzodithiophene based organic materials. For the synthesis of the novel benzodithiophene-derivatives the key intermediate TIPS-BDT is obtained in high yields. A difunctionalization of TIPS-BDT in 2,6-position is observed by electrophilic substitution reactions and provided the desired dibromo- and distannyl-monomers. Via Stille-reaction alternated copolymers with alkylated fluorene and quinoxaline groups are synthesized. All copolymers are soluble in common organic solvents, show high thermal stability and good film forming properties. Furthermore all copolymers have HOMO values above -6.3 eV and are more oxidation stable compared to the thiophene based copolymers (P-1 up to P-3). These copolymers show an amorphous behavior as semiconductor layer in OFETs and mobilities up to 10-4 cm2/Vs are observed. A correlation between the device performance and the tin amount in the polymer could be demonstrated. Hence the functional SnMe3 groups can act as traps, a tin amount higher than 0.6 % can negatively influence the mobility. Alternatively the alternated TIPS-BDT/Fluoren-copolymer P-5-Stille is polymerized by the Suzuki-Method. The highest mobility of 10-2 cm2/Vs is obtained with P-5-Suzuki as active semiconductor layer in OFET. In comparison to P-5-Stille this mobility is two orders of magnitude higher, because in P-5-Suzuki traps are minimized and the charge transfer is improved. The synthesis of homopolymer P-12 as well as the copolymer with aromatic benzothiadiazole P-9 resulted in insoluble polymers. For this reason terpolymers containing TIPS-BDT/Fluoren/BTD units are designed. Additionally an attempt has been made to introduce the TIPS-BDT unit in the side chain of styrene. The introduction of BTD in the conjugated main chain influences especially the absorption and electrochemical properties. Compared to TIPS-BDT/Fluoren-copolymer the absorption of the terpolymer is shifted to the visible region and the LUMO values decreased. An improvement in the device performance is not observed. A side chain polystyrene containing TIPS-BDT P-13 is synthesized successfully. The amorphous and soluble P-13 showed comparable mobilities (µ = 10-5 cm2/Vs) as known styrene based polymers. A further aim of this work is the synthesis of organo-soluble benzodithiophene based small molecules. Using Suzuki- and Stille-reactions different aromatic cores as endcappers are connected by σ-bonds at the 2,6-position of TIPS-BDT. UV/VIS-measurements show a red-shift of the absorption maxima with extension of the π-conjugated system. Furthermore it is possible to introduce thermal cross linkable allyloxy-groups. The F-atoms in the molecule lead to stronger intermolecular interactions in the solid state, which improves the electronic properties and lead to high mobilities up to 0.09 cm2/Vs for TIPS-BDT (SM-4). KW - Thiophen und Benzodithiophen Copolymere KW - konjugierte kleine Moleküle KW - organische Halbleiter KW - OFET KW - Ladungstransport KW - Thiophene and Benzodithiophene copolymers KW - conjugated small molecules KW - organic semiconductors KW - OFET KW - charge transfer Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66164 ER - TY - THES A1 - Bomm, Jana T1 - Von Gold Plasmonen und Exzitonen : Synthese, Charakterisierung und Applikationen von Gold Nanopartikeln T1 - Of gold plasmons and excitons : synthesis, characterization and applications of gold nanoparticles N2 - In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein. N2 - In this thesis, the synthesis and optical characterization of spherical gold nanoparticles (NP) with diameters larger than ~ 2 nm, gold quantum dots (QDs) with diameters smaller than ~ 2 nm and gold nanorods (NRs) with different lengths are presented. In addition, a novel one-pot synthesis for the preparation of thermosensitive gold QDs is introduced. Gold NP solutions appear red colored due to their strong absorption in the visible range at ~ 520 nm. This absorption band is a result of surface plasmon resonance, which is caused by the coherent oscillation of conduction band electrons induced by an electromagnetic field. In contrast to spherical gold NPs, gold NRs show two surface plasmon bands due to their anisotropic shape, a transverse plasmon band at ~ 520 nm and a longitudinal plasmon band depending on the aspect ratio (length-to-width-ratio) of the gold NRs. If the size of the gold NPs decreases to values below ~ 2 nm, quantum-size confinement occurs and the surface plasmon band disappears. Additionally, the overlap between conduction band and valence band disappears, discrete electronic levels arise and a band gap is created. As a consequence of quantum confinement, the gold QDs show photoluminescence (PL) upon UV-irradiation. The gold QDs synthesized via the one-pot synthesis exhibit a broadband luminescence between 500 nm and 800 nm. The luminescence properties (emission peak, quantum yield, lifetime) strongly depend on the synthetic parameters like reaction temperature, stoichiometry and the surface ligand. Gold NRs and gold QDs were incoroporated into different polymers (e.g. cellulose triacetate). Polymer nanocomposite films showing optical anisotropy are obtainded by stretching polymer films containing gold NRs uniaxial in a tensile test machine. In addition to the optical characterization of gold NRs and QDs, their thermal behavior in solution as well as in different nanocomposites is studied. A shortening of the gold NRs or a transformation into spherical gold NP is observed, if the polymer nanocomposites containing gold NRs are heated above a temperature of 200 °C. The PL of the synthesized gold QDs strongly depends on the ambient temperature. An increase of PL quantum yield (QY) and PL lifetime occur, if the solutions are cooled. The best PL QY of 16.6 % was observed for octadecyl mercaptan capped gold QDs at room temperature, which could be improved to 28.6 % when cooling the solutions to -7 °C. Furthermore, optically anisotropic security labels containing gold NRs and thermosensitive security devices containing gold QDs are developed. Due to their unique optical properties, gold NRs and QDs are interesting candidates for optoelectronical as well as data storage devices and medical applications like biomedical imaging or cancer therapy. KW - Gold KW - Nanopartikel KW - Quantenpunkte KW - Nanostäbchen KW - Oberflächenplasmonenlasmonen KW - gold KW - nanoparticles KW - quantum dots KW - nanorods KW - surface plasmons Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66402 ER - TY - THES A1 - Friedrich, Katja T1 - Selbstständig(er) durch Selbst- und Fremdeinschätzung? : Möglichkeiten und Grenzen der Förderung von Metakognitionsstrategien bei Schülerinnen und Schülern durch "Ich-kann"-Checklisten ; Ergebnisse einer gezielten Intervention im Fach Deutsch in der 7. gymnasialen Jahrgangsstufe T1 - Self-reliance through self-assessment and third-party assessment? : the potential and the limits of fostering the use of "Can do" checklists as a meta-cognitive strategy ; findings of a targeted intervention following 13 and 14 year old German class Gymnasium students N2 - Neben der Frage nach der leistungssteigernden Wirkung von sogenannten "Ich-kann"-Checklisten auf die Metakognitionsstrategien der Schülerinnen und Schüler, geht die Arbeit auch den Fragen nach, welche Schülerinnen und Schüler "Ich-kann"-Checklisten nutzen, in welcher Form und unter welchen Kontextmerkmalen sie am wirksamsten sind. Dabei handelt es sich um Listen mit festgelegten, fachlichen und überfachlichen Kompetenzen einer bzw. mehrerer Unterrichtseinheiten, die in Form von „Ich-kann“-Formulierungen für Schüler geschrieben sind und die Aufforderung einer Selbst- und Fremdeinschätzung beinhalten. Blickt man in die Veröffentlichungen der letzten Jahre zu diesem Thema und in die schulische Praxis, so ist eine deutliche Hinwendung zur Entwicklung und Arbeit mit „Ich-kann“-Checklisten und Kompetenzrastern zu erkennen. Umso erstaunlicher ist es, dass diesbezüglich so gut wie keine empirischen Untersuchungen vorliegen (vgl. Bastian & Merziger, 2007; Merziger, 2007). Basierend auf einer quantitativen Erhebung von 197 Gymnasialschülerinnen und -schülern in der 7. Jahrgangsstufe im Fach Deutsch wurde über einen Zeitraum von zwei Jahren diesen übergeordneten Fragen nachgegangen. Die Ergebnisse lassen die Aussagen zu, dass "Ich-kann"-Checklisten insbesondere für Jungen ein wirksames pädagogisches Instrument der Selbstregulation darstellen. So fördert die Arbeit mit "Ich-kann"-Checklisten nicht nur die Steuerung eigener Lernprozesse, sondern auch die Anstrengungsbereitschaft der Schülerinnen und Schüler, mehr für das Fach tun zu wollen. Eine während der Intervention erfolgte Selbsteinschätzung über den Leistungsstand mittels der "Ich-kann"-Checklisten fördert dabei den freiwilligen außerunterrichtlichen Gebrauch. N2 - This paper examines the performance enhancing effect of so called “Can Do” checklists on the metacognitive strategies of 13 to 14 year old Gymnasium students. This study analyzes which students actually use “Can Do” checklists, in what form they apply them, and the specific circumstances in which they appear to be most effective. These checklists define fundamental, subject-specific, and interdisciplinary competencies that are formulated into written “Can Do” lessons that require both self-assessment and third-party assessment. The increasing development and application of “Can Do” checklists and performance metrics is clearly seen both in the recent scholarly papers that address this issue and in classroom practice. The fact that this trend is emerging despite the lack of empirical studies is particularly surprising (e.g. Bastian & Merzinger, 2007; Merzinger, 2007). These salient questions were examined through analysis of a two-year quantitative survey that monitored two consecutive classes of 197 Gymnasium students in their German class during their 7th academic year. The results of this study indicate that “Can Do” checklists are an effective pedagogical tool for self-evaluation especially for boys. Applying this methodology both fosters self management of the learning process and motivates the student to invest more effort into the subject. The benefits of continuous performance self-assessment using “Can Do” checklists also transfer voluntarily beyond the classroom. KW - Metakognitionsstrategien KW - „Ich-kann“-Checklisten KW - Selbstregulation KW - Selbst- und Fremdeinschätzung KW - Schul- und Unterrichtsentwicklung KW - Metacognitive strategies KW - “Can do”-checklists KW - self-regulation KW - self-assessment and third-party assessment KW - curriculum and lesson plan develop Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66411 ER - TY - THES A1 - Fischer, Jost T1 - Über Synchronisationsphänomene nichtlinearer akustischer Oszillatoren T1 - About synchronization phenomena of nonlinear acoustic oscillators N2 - In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert. N2 - In this study, synchronization properties observed in a system of nonlinear acoustic oscillators in form of two coupled organ pipes are investigated. From given measurements we extract the effects of synchronization one would expect typically. Furthermore we set our focus to the domains of transition into the synchronization region, when the system is complete synchronized and when it tears off, under the condition of different coupling strengths. We analyze and discuss the observed phenomena concerning their nonlinearities. Using numerical, fluid-dynamic and aeroacoustic simulation techniques we investigate how an organ pipe can be understand as a self-sustained, acoustic oscillator. With the results of the numerical simulations we show, how to reduce the complex fluid-dynamical interplay with the acoustic field inside the pipe to a self-sustained acoustic oscillator. For this process we use the coarse graining method. KW - Physik KW - Synchronisation KW - Orgelpfeife KW - nichtlinear KW - Akustik KW - physics KW - synchronization KW - organ pipe KW - nonlinear KW - acoustics Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63618 ER - TY - THES A1 - Muriu, Abraham Rugo T1 - Decentralization, citizen participation and local public service delivery : a study on the nature and influence of citizen participation on decentralized service delivery in Kenya N2 - Governments at central and sub-national levels are increasingly pursuing participatory mechanisms in a bid to improve governance and service delivery. This has been largely in the context of decentralization reforms in which central governments transfer (share) political, administrative, fiscal and economic powers and functions to sub-national units. Despite the great international support and advocacy for participatory governance where citizen’s voice plays a key role in decision making of decentralized service delivery, there is a notable dearth of empirical evidence as to the effect of such participation. This is the question this study sought to answer based on a case study of direct citizen participation in Local Authorities (LAs) in Kenya. This is as formally provided for by the Local Authority Service Delivery Action Plan (LASDAP) framework that was established to ensure citizens play a central role in planning and budgeting, implementation and monitoring of locally identified services towards improving livelihoods and reducing poverty. Influence of participation was assessed in terms of how it affected five key determinants of effective service delivery namely: efficient allocation of resources; equity in service delivery; accountability and reduction of corruption; quality of services; and, cost recovery. It finds that the participation of citizens is minimal and the resulting influence on the decentralized service delivery negligible. It concludes that despite the dismal performance of citizen participation, LASDAP has played a key role towards institutionalizing citizen participation that future structures will build on. It recommends that an effective framework of citizen participation should be one that is not directly linked to politicians; one that is founded on a legal framework and where citizens have a legal recourse opportunity; and, one that obliges LA officials both to implement what citizen’s proposals which meet the set criteria as well as to account for their actions in the management of public resources. T2 - Dezentralisierung, Bürgerbeteiligung und kommunale Leistungserstellung in Kenia T3 - Schriftenreihe für Public und Nonprofit Management - 17 KW - Dezentralisierung KW - Bürgerbeteiligung KW - kommunale Leistungserstellung KW - Kenia KW - decentralization KW - citizen participation KW - local public service delivery KW - Kenya Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65085 ER - TY - GEN A1 - Winst, Silke T1 - Narration im späten Mittelalter BT - Serialität und Komplexität im Prosaepos ›Loher und Maller‹ T2 - Postprints der Universität Potsdam : Philosophische Reihe N2 - In older research literature, the prose epics emerging from the court of Elisabeth of Lorraine and Nassau-Saarbrücken have repeatedly been accused of lacking structure and literariness. By contrast, this article shows that narrative principles of seriality generate the complex structure of the voluminous ›Loher und Maller‹: literary strategies of repetition and variation organize the text on different levels. Recurring narrative structures, thematic constellations and motivations as well as lexical stereotypes are part of this comprehensive principle of seriality. Not triviality and insufficiency, but structural and narrative complexity and lexical accumulation of significance characterize ›Loher und Maller‹. T3 - Zweitveröffentlichungen der Universität Potsdam : Philosophische Reihe - 106 Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93756 SN - 1866-8380 SP - 220 EP - 238 ER - TY - JOUR A1 - Müller, Melanie ED - Kleinwächter, Kai T1 - Die Zivilgesellschaft in der internationalen Klimapolitik BT - Zwischen Kooperation und Instrumentalisierung JF - Klimapolitik International N2 - Die Zivilgesellschaft hat dazu beigetragen, dass die Klimakonferenz in Kopenhagen zu einem Medienereignis wurde. Fernab großer Demonstrationen haben Nichtregierungsorganisationen (NRO) seit Jahren einen guten Zugang zu den internationalen Klimaverhandlungen. Am Beispiel von Chile wird gezeigt, wie Nichtregierungsorganisationen durch professionellen Lobbyismus ihre Positionen in politische Prozesse einspeisen. Sie befinden sich in einem Spannungsfeld von Kooperation und Instrumentalisierung durch politische Entscheidungsträger. KW - Klimapolitik KW - Klima KW - Durban 2011 KW - Klimakonferenz KW - NGO KW - Entwicklungspolitik KW - climate policy KW - climate KW - Climate Change Conference KW - development policy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81331 SN - 1868-6222 SN - 1868-6230 SP - 59 EP - 66 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Schunz, Simon ED - Kleinwächter, Kai T1 - Gescheiterte Klimapolitik? BT - Weltpolitik nach Kopenhagen JF - Klimapolitik International N2 - Der Kopenhagener Klimagipfel 2009 ist mit Spannung erwartet worden. Erreicht wurde lediglich ein Minimalkonsens. Der Autor liefert eine akteurszentrierte Deutung des Kopenhagener Abkommens und stellt die Frage nach dem Präzedenzcharakter der Verhandlungen: Handelte es sich um ein einmaliges Versagen multilateraler Diplomatie oder um einen Vorgeschmack auf die weltpolitische Routine des 21. Jahrhunderts? KW - Klimapolitik KW - Klima KW - Durban 2011 KW - Klimakonferenz KW - NGO KW - Entwicklungspolitik KW - climate policy KW - climate KW - Climate Change Conference KW - development policy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81347 SN - 1868-6222 SN - 1868-6230 SP - 67 EP - 72 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Lohmann, Michael T1 - Medienorientierung und innerparteiliche Machtkämpfe : Gründe und Verläufe innerparteilicher Machtkämpfe am Beispiel der unerwarteten Kampfkandidatur um den Parteivorsitz auf dem Mannheimer SPD-Parteitag 1995 T1 - Media focus and inner-party power struggles : reasons and courses of inner-party power struggles ; the example of the unexpected combat candidacy for the chairmanship at the SPD party convention in Mannheim 1995 N2 - Üblicherweise vermeiden deutsche Parteien Kampfkandidaturen um den Vorsitz. Dennoch kam es auf dem Mannheimer SPD-Parteitag 1995 zu einer unerwarteten offenen Konkurrenz um das Spitzenamt. Das unbeabsichtigte Scheitern der Inszenierung der „Geschlossenheit“ der Partei führte zum Ausbruch der bis dahin unterdrückten Kämpfe um den Parteivorsitz. Der Mannheimer Parteitag steht exemplarisch für den Zusammenhang zwischen Inszenierung, Disziplin und den informellen Regeln innerparteilicher Machtkonstruktion. Am Beispiel dieses Parteitages zeigt die vorliegende Arbeit, wie umstrittenen Parteivorsitzenden sich gegen Widerstände im Amt behaupten können bzw. woran diese Strategie scheitern kann. Aus figurationstheoretischer Perspektive wird die Inszenierung als Notwendigkeit medienvermittelter Parteienkonkurrenz um Wählerstimmen gefasst. Inszenierung erfordert Selbstdisziplin und das koordinierte Handeln der Parteimitglieder. Innerparteilich wird so wechselseitige Abhängigkeit erzeugt. Diese wird gesteigert durch die Medien-Konzentration auf wenige Spitzenpolitiker. Die Mehrheit der Mandatsträger und Funktionäre ist angewiesen auf das medienwirksame Auftreten der Führung. Für den Medienerfolg braucht die Führung ihrerseits die Unterstützung der Mitglieder. Diese wechselseitige Abhängigkeit erzeugt sowohl typische Relevanzen als auch Möglichkeiten, die jeweils andere Interessengruppe unter Zugzwang zu setzen. Imageprobleme des Vorsitzenden sind als verletzte Erwartungen Anlass für innerparteiliche Machtkämpfe, in denen die Parteiführung insbesondere die Inszenierung der „Geschlossenheit“ nutzen kann, um offene Personaldiskussionen zu verhindern. Da Handlungsoptionen und -grenzen durch das Handeln der Akteure immer wieder neu geschaffen werden, besteht stets das Risiko des Scheiterns innerparteilicher Disziplinierung. Mit dem Nachvollzug von Disziplinierung und den Gründen ihrer Kontingenz versteht sich die vorliegende Arbeit als Beitrag zu einer Theorie informeller Machtregeln in Organisationen mit schwach ausgeprägten Herrschaftsstrukturen. Im ersten Teil der Arbeit wird der Zusammenhang zwischen Inszenierung und Macht durch die Konzepte Theatralität und Figuration entwickelt. Im zweiten Teil werden typische Konstellationen der gegenwärtigen parlamentarischen Demokratie auf typische beziehungsvermittelte Situationsdeutungen, Handlungsmöglichkeiten und -grenzen untersucht. Im dritten Teil wird der kontingente Prozess des innerparteilichen Machtkampfes am Beispiel des Mannheimer Parteitages 1995 nachvollzogen. N2 - Usually german parties avoid crucial votes for chairmanship. Nevertheless 1995 on the Mannheim SPD party convention an unexpected open competition for leading position has happened. Because of unintended failure of the staging “cohesion” and “harmony” of the party repressed fights for the party leadership broke out suddenly. The Mannheim party convention is an example for the connection of staging, discipline and unexpressed rules of construction of power within the party. On the example of this party convention this doctoral thesis shows how contested party leaders maintain their position against the resistance of critics. This thesis also shows why this strategy could fail. In the perspective of figurational sociology staging is necessary for political parties because parties compete with others for electors votes and their campaigns depend from the media. Staging needs self-discipline and a coordinated acting of party members. This causes a mutual dependence of party members which increases through the concentration of media on a few top-ranking politicians. So the majority of members of parliament and officials depends on the public acting of these small group of leaders and their reception in the media. On the other hands side for a successful medial self staging leaders need support of their members. This mutual dependence generates typical relevance as well as posibilities to force the respective opponents hand. Problems of public image of the chairman cause internal power struggles, in this struggles the party leadership uses the staging of “cohesion” and “harmony” to avoid open personnel discussions.This strategy of keeping discipline of members acting can fail because in relations of mutual dependence protagonists create options and restrictions of acting for each other. By comprehending the disciplinary action and the reasons of their contingency this doctoral thesis is a contribution to a theory of informal rules of power in organisations with weak distinct structures of authority.The first part of this work developes the connection of staging and power through concepts of theatricality and figuration.The second part analyzes the typical constellations of present parliamentary democracy and the way these relations cause specific perceptions of situation, options and restriction of acting. The third part comprehends the kontingental prozess of the party infighting using the example of the 1995 Mannheim party convention. KW - Partei KW - politische Soziologie KW - Machtkampf KW - Inszenierung KW - Organisationstheorie KW - political parties KW - political sociology KW - power struggles KW - inscenation KW - organizational theory Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71245 ER - TY - BOOK A1 - Vogt, Cornelius T1 - Strategische Aspekte deutscher Weltraumsicherheitspolitik T1 - Strategic aspects of German space policy N2 - Deutschland hat sich innerhalb kurzer Zeit zu einem bedeutenden sicherheitspolitischen Akteur im Weltraum entwickelt. Am 1. Dezember 2010 stellte die Bundesregierung die deutsche Raumfahrtstrategie vor. Immer wieder ist die Rede von der strategischen Bedeutung des Weltraums für die deutsche Sicherheitspolitik. Eine fundierte und überprüfbare Begründung für diese Behauptung fehlt indes. Der Politikwissenschaftler Cornelius Vogt analysiert die strategischen Aspekte deutscher Weltraumsicherheitspolitik. Seine Untersuchung des strategischen Umfeldes, der nationalen Interessen, des sicherheitspolitischen Nutzens des Weltraums und der wichtigsten Anwendungsfelder zeigt, dass der Weltraum zum unverzichtbaren Bestandteil der gesamtstaatlichen Sicherheitsvorsorge avanciert ist. N2 - Within a short time span Germany evolved into a significant actor in space security affairs. On December 1, 2010 the German Government introduced the German National Space Strategy. The strategic importance of space for German security policy has been mentioned repeatedly. However, a verifiable substantiation that is based on facts is missing so far. Until today there exists a certain gap of academic attempting to analyze German space security policy as a strategic aspect of German security policy. The political scientist, Cornelius Vogt, analyzes the strategic aspects of German space policy. His comprehensive study examines the strategic environment, the German national interests, the security policy benefit of space, and the most important fields of application. The study shows that space has become an indispensable element of German whole-of-government security preparedness. T3 - WeltTrends Thesis - 13 KW - Sicherheitspolitik KW - Deutschland KW - Weltraum KW - security affairs KW - Germany KW - Space Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59287 SN - 978-3-86956-184-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Born, Stephan T1 - Kartierung der Bindungstasche des humanen Bittergeschmacksrezeptors hTAS2R10 T1 - Mapping the binding site of the human bitter taste receptor hTAS2R10 N2 - Die Bittergeschmacksrezeptoren stellen in der Superfamilie der G-Protein-gekoppelten Rezeptoren eine besondere Gruppe dar. Im Menschen können die 25 Rezeptoren eine große Anzahl unterschiedlichster Bittergeschmacksstoffe detektieren. Diese Substanzen können sowohl schädlich, wie etwa Strychnin, als auch der Gesundheit förderliche Arzneistoffe, wie etwa Chloramphenicol sein. Unter den Bittergeschmacksrezeptoren des Menschen gibt es eine Gruppe von drei Rezeptoren, die besonders viele Bitterstoffe detektieren können. Einer von ihnen ist der Rezeptor hTAS2R10. In dieser Arbeit konnte sowohl experimentell als auch durch computergestützte Modellierung gezeigt werden, dass der hTAS2R10 nur eine Bindungstasche besitzt. Das stimmt mit den bisher ausführlich experimentell und in silico untersuchten Rezeptoren hTAS2R1, -R16, -R38 und -R46 überein. Die für die Agonisteninteraktionen nachweislich wichtigen Transmembrandomänen sind in den bisher untersuchten Bittergeschmacksrezeptoren, wie auch im hTAS2R10, die Transmembrandomänen 3, 5, 6 und 7. Die Untersuchungen zeigten, dass die Bindungstasche des hTAS2R10 in der oberen Hälfte des zum extrazellulären Raum gerichteten Bereichs lokalisiert ist. Insbesondere konnte für die untersuchten Agonisten Strychnin, Parthenolid und Denatoniumbenzoat gezeigt werden, dass die Seitenketten der Aminosäuren in Position 3.29 und 5.40 ausgeprägte agonistenselektive Wechselwirkungen eingehen. Weitere Untersuchungen haben ergeben, dass das weitgefächerte Agonistenspektrum des hTAS2R10 zu Lasten der Sensitivität für einzelne Bitterstoffe geht. Der Vergleich wichtiger Positionen im hTAS2R10, hTAS2R46 und mTas2r105 hat deutlich gemacht, dass sich die Bindungsmodi zwischen diesen Rezeptoren unterscheiden. Dies deutet auf eine getrennte evolutionäre Entwicklung der Bindungseigenschaften dieser Rezeptoren hin. Gleichfalls zeigten die Untersuchungen, dass einige Positionen wie z.B. 7.39 die Funktion aller untersuchten Bittergeschmacksrezeptoren prägen, sich jedoch die genaue Bedeutung im jeweiligen Rezeptor unterscheiden kann. Einzelne dieser Positionen konnten auch bei der Agonisteninteraktion des Rhodopsins und des β2-adrenergen Rezeptors beobachtet werden. Die Ergebnisse dieser Arbeit helfen dabei die Wechselwirkungen zwischen Bitterstoffen und den Bittergeschmacksrezeptoren zu verstehen und geben erste Einblicke in die Entwicklung der Rezeptoren in Hinblick auf ihren Funktionsmechanismus. Diese Erkenntnisse können genutzt werden, um Inhibitoren zu entwickeln, die sowohl ein wichtiges Werkzeug in der Rezeptoranalytik wären, als auch dazu genutzt werden könnten, den unerwünschten bitteren Geschmack von Medikamenten oder gesundheitsfördernden sekundären Pflanzenstoffen zu mindern. Damit könnte ein Beitrag zur Gesundheit der Menschen geleistet werden. N2 - In the Superfamily of G protein-coupled receptors the bitter taste receptors form a notable group. The 25 human receptors are able to detect a large group of structurally diverse bitter compounds. These compounds can be toxic – like strychnine – or have beneficial effects on health – like the pharmacological agent chloramphenicol. Three of these bitter taste receptors show a strikingly broad agonist spectrum. One of them is the hTAS2R10. It was shown empirically and by computational modelling that the hTAS2R10 has only one binding pocket. This agrees with the findings of studies on the bitter taste receptors hTAS2R1, -R16, -R38 and -R46. The domains important for agonist interaction in these receptors, as well as in the hTAS2R10, are the transmembrane domains 3, 5, 6 and 7. The results of this thesis show that the binding pocket of the hTAS210 is located in the upper part of the receptor which points into the direction of the extracellular area. Interestingly, it has been shown for the amino acid side chains in the positions 3.29 and 5.40, that they can interact with the analysed agonists strychnine, parthenolide and denatonium benzoate in an agonist-selective way. Further analyses showed that the broad tuning of the hTAS2R10 goes at the expense of the sensitivity to single agonists. The comparison of crucial positions in the hTAS2R10, hTAS2R46 and the mTas2r105 reveal that these receptors differ in their binding mode. These could be evidence that the binding abilities of these receptors evolved independently. However, the results show that some positions, e.g. 7.39, influence the receptor activity in all analysed receptors, but the function of these positions in the receptors could be different. Some of these positions also have an influence on the agonist-receptor interaction of Rhodopsin and the β2-adrenergic receptor. The findings in this thesis contribute to the knowledge about interaction between bitter receptors and bitter compounds. The results also provide insight into the evolvement of receptor functions. These outcomes can be of use for the development of inhibitors which could serve as analytical tools in taste research. Furthermore, such inhibitors could be used to reduce the bitter taste of medicine and healthy plant compounds and thus increase palatability. This could contribute to improve human well-being. KW - Bittergeschmack KW - hTAS2R10 KW - Geschmack KW - Agonisteninteraktion KW - Homologiemodellierung KW - taste KW - hTAS2R10 KW - homology modelling KW - agonists interaction KW - bitter taste Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61392 ER - TY - INPR A1 - Alsaedy, Ammar A1 - Tarkhanov, Nikolai Nikolaevich T1 - The method of Fischer-Riesz equations for elliptic boundary value problems N2 - We develop the method of Fischer-Riesz equations for general boundary value problems elliptic in the sense of Douglis-Nirenberg. To this end we reduce them to a boundary problem for a (possibly overdetermined) first order system whose classical symbol has a left inverse. For such a problem there is a uniquely determined boundary value problem which is adjoint to the given one with respect to the Green formula. On using a well elaborated theory of approximation by solutions of the adjoint problem, we find the Cauchy data of solutions of our problem. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 1(2012)24 KW - Boundary value problems for first order systems KW - Green formula KW - Fischer-Riesz equations KW - regularisation Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61792 ER - TY - THES A1 - Brückner, Michael T1 - Prediction games : machine learning in the presence of an adversary T1 - Prädiktionsspiele : maschinelles Lernen in Anwesenheit eines Gegners N2 - In many applications one is faced with the problem of inferring some functional relation between input and output variables from given data. Consider, for instance, the task of email spam filtering where one seeks to find a model which automatically assigns new, previously unseen emails to class spam or non-spam. Building such a predictive model based on observed training inputs (e.g., emails) with corresponding outputs (e.g., spam labels) is a major goal of machine learning. Many learning methods assume that these training data are governed by the same distribution as the test data which the predictive model will be exposed to at application time. That assumption is violated when the test data are generated in response to the presence of a predictive model. This becomes apparent, for instance, in the above example of email spam filtering. Here, email service providers employ spam filters and spam senders engineer campaign templates such as to achieve a high rate of successful deliveries despite any filters. Most of the existing work casts such situations as learning robust models which are unsusceptible against small changes of the data generation process. The models are constructed under the worst-case assumption that these changes are performed such to produce the highest possible adverse effect on the performance of the predictive model. However, this approach is not capable to realistically model the true dependency between the model-building process and the process of generating future data. We therefore establish the concept of prediction games: We model the interaction between a learner, who builds the predictive model, and a data generator, who controls the process of data generation, as an one-shot game. The game-theoretic framework enables us to explicitly model the players' interests, their possible actions, their level of knowledge about each other, and the order at which they decide for an action. We model the players' interests as minimizing their own cost function which both depend on both players' actions. The learner's action is to choose the model parameters and the data generator's action is to perturbate the training data which reflects the modification of the data generation process with respect to the past data. We extensively study three instances of prediction games which differ regarding the order in which the players decide for their action. We first assume that both player choose their actions simultaneously, that is, without the knowledge of their opponent's decision. We identify conditions under which this Nash prediction game has a meaningful solution, that is, a unique Nash equilibrium, and derive algorithms that find the equilibrial prediction model. As a second case, we consider a data generator who is potentially fully informed about the move of the learner. This setting establishes a Stackelberg competition. We derive a relaxed optimization criterion to determine the solution of this game and show that this Stackelberg prediction game generalizes existing prediction models. Finally, we study the setting where the learner observes the data generator's action, that is, the (unlabeled) test data, before building the predictive model. As the test data and the training data may be governed by differing probability distributions, this scenario reduces to learning under covariate shift. We derive a new integrated as well as a two-stage method to account for this data set shift. In case studies on email spam filtering we empirically explore properties of all derived models as well as several existing baseline methods. We show that spam filters resulting from the Nash prediction game as well as the Stackelberg prediction game in the majority of cases outperform other existing baseline methods. N2 - Eine der Aufgabenstellungen des Maschinellen Lernens ist die Konstruktion von Vorhersagemodellen basierend auf gegebenen Trainingsdaten. Ein solches Modell beschreibt den Zusammenhang zwischen einem Eingabedatum, wie beispielsweise einer E-Mail, und einer Zielgröße; zum Beispiel, ob die E-Mail durch den Empfänger als erwünscht oder unerwünscht empfunden wird. Dabei ist entscheidend, dass ein gelerntes Vorhersagemodell auch die Zielgrößen zuvor unbeobachteter Testdaten korrekt vorhersagt. Die Mehrzahl existierender Lernverfahren wurde unter der Annahme entwickelt, dass Trainings- und Testdaten derselben Wahrscheinlichkeitsverteilung unterliegen. Insbesondere in Fällen in welchen zukünftige Daten von der Wahl des Vorhersagemodells abhängen, ist diese Annahme jedoch verletzt. Ein Beispiel hierfür ist das automatische Filtern von Spam-E-Mails durch E-Mail-Anbieter. Diese konstruieren Spam-Filter basierend auf zuvor empfangenen E-Mails. Die Spam-Sender verändern daraufhin den Inhalt und die Gestaltung der zukünftigen Spam-E-Mails mit dem Ziel, dass diese durch die Filter möglichst nicht erkannt werden. Bisherige Arbeiten zu diesem Thema beschränken sich auf das Lernen robuster Vorhersagemodelle welche unempfindlich gegenüber geringen Veränderungen des datengenerierenden Prozesses sind. Die Modelle werden dabei unter der Worst-Case-Annahme konstruiert, dass diese Veränderungen einen maximal negativen Effekt auf die Vorhersagequalität des Modells haben. Diese Modellierung beschreibt die tatsächliche Wechselwirkung zwischen der Modellbildung und der Generierung zukünftiger Daten nur ungenügend. Aus diesem Grund führen wir in dieser Arbeit das Konzept der Prädiktionsspiele ein. Die Modellbildung wird dabei als mathematisches Spiel zwischen einer lernenden und einer datengenerierenden Instanz beschrieben. Die spieltheoretische Modellierung ermöglicht es uns, die Interaktion der beiden Parteien exakt zu beschreiben. Dies umfasst die jeweils verfolgten Ziele, ihre Handlungsmöglichkeiten, ihr Wissen übereinander und die zeitliche Reihenfolge, in der sie agieren. Insbesondere die Reihenfolge der Spielzüge hat einen entscheidenden Einfluss auf die spieltheoretisch optimale Lösung. Wir betrachten zunächst den Fall gleichzeitig agierender Spieler, in welchem sowohl der Lerner als auch der Datengenerierer keine Kenntnis über die Aktion des jeweils anderen Spielers haben. Wir leiten hinreichende Bedingungen her, unter welchen dieses Spiel eine Lösung in Form eines eindeutigen Nash-Gleichgewichts besitzt. Im Anschluss diskutieren wir zwei verschiedene Verfahren zur effizienten Berechnung dieses Gleichgewichts. Als zweites betrachten wir den Fall eines Stackelberg-Duopols. In diesem Prädiktionsspiel wählt der Lerner zunächst das Vorhersagemodell, woraufhin der Datengenerierer in voller Kenntnis des Modells reagiert. Wir leiten ein relaxiertes Optimierungsproblem zur Bestimmung des Stackelberg-Gleichgewichts her und stellen ein mögliches Lösungsverfahren vor. Darüber hinaus diskutieren wir, inwieweit das Stackelberg-Modell bestehende robuste Lernverfahren verallgemeinert. Abschließend untersuchen wir einen Lerner, der auf die Aktion des Datengenerierers, d.h. der Wahl der Testdaten, reagiert. In diesem Fall sind die Testdaten dem Lerner zum Zeitpunkt der Modellbildung bekannt und können in den Lernprozess einfließen. Allerdings unterliegen die Trainings- und Testdaten nicht notwendigerweise der gleichen Verteilung. Wir leiten daher ein neues integriertes sowie ein zweistufiges Lernverfahren her, welche diese Verteilungsverschiebung bei der Modellbildung berücksichtigen. In mehreren Fallstudien zur Klassifikation von Spam-E-Mails untersuchen wir alle hergeleiteten, sowie existierende Verfahren empirisch. Wir zeigen, dass die hergeleiteten spieltheoretisch-motivierten Lernverfahren in Summe signifikant bessere Spam-Filter erzeugen als alle betrachteten Referenzverfahren. KW - Prädiktionsspiel KW - Adversarial Learning KW - Angewandte Spieltheorie KW - Maschinelles Lernen KW - Spam-Filter KW - Prediction Game KW - Adversarial Learning KW - Applied Game Theory KW - Machine Learning KW - Spam Filtering Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60375 SN - 978-3-86956-203-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Agamy, Ibrahim T1 - Social networking software in higher education : investigating the influence of using different interaction levels on learners’ achievement and satisfaction T1 - Social-Networking-Software in der Hochschulbildung : Untersuchung des Einflusses von Interaktion auf verschiedenen Ebenen auf die Zufriedenheit und Leistung von Lernenden N2 - Education in knowledge society is challenged with a lot of problems in particular the interaction between the teacher and learner in social networking software as a key factor affects the learners’ learning and satisfaction (Prammanee, 2005) where “to teach is to communicate, to communicate is to interact, to interact is to learn” (Hefzallah, 2004, p. 48). Analyzing the relation between teacher-learner interaction from a side and learning outcome and learners’ satisfaction from the other side, some basic problems regarding a new learning culture using social networking software are discussed. Most of the educational institutions pay a lot of attentions to the equipments and emerging Information and Communication Technologies (ICTs) in learning situations. They try to incorporate ICT into their institutions as teaching and learning environments. They do this because they expect that by doing so they will improve the outcome of the learning process. Despite this, the learning outcome as reported in most studies is very limited, because the expectations of self-directed learning are much higher than the reality. Findings from an empirical study (investigating the role of teacher-learner interaction through new digital media wiki in higher education and learning outcome and learner’s satisfaction) are presented recommendations about the necessity of pedagogical interactions in support of teaching and learning activities in wiki courses in order to improve the learning outcome. Conclusions show the necessity for significant changes in the approach of vocational teacher training programs of online teachers in order to meet the requirements of new digital media in coherence with a new learning culture. These changes have to address collaborative instead of individual learning and ICT wiki as a tool for knowledge construction instead of a tool for gathering information. N2 - Bildung in der Wissensgesellschaft ist mit einer Vielzahl von Herausforderungen verbunden. Insbesondere die Interaktion zwischen Lehrenden und Lernenden ist in sozialen Netzwerken durch Software bestimmt, die als ein wesentlicher Faktor den Lernerfolg der Lernenden und ihre Zufriedenheit bestimmt (Prammanee, 2005), da “to teach is to communicate, to communicate is to interact, to interact is to learn” (Hefzallah, 2004, S. 48). Die Analyse der Art der Lehrer-Schüler-Interaktion auf der einen Seite und das Lernergebnis und die Zufriedenheit der Lernenden auf der anderen Seite, sind einige grundlegende zu diskutierende Herausforderungen hinsichtlich einer neuen Lernkultur mit Social-Networking-Software. Eine Vielzahl der Bildungseinrichtungen achten daher auf die Ausstattung mit Ausrüstungen und zugehörigen Informations- und Kommunikationstechnologien (IKT) zur Gestaltung von Lernsituationen. Sie versuchen die IKT in ihren Institutionen als Lehr-und Lernumgebungen zu integrieren, da sie damit einen positiven Effekt auf den Ausgang des Lernprozesses verbinden. Trotzdem sind die Lernergebnisse, die in den meisten Studien untersucht wurden, sehr begrenzt. Es zeigt sich, dass die Erwartungen der Lehrkräfte an selbstgesteuertes Lernen viel höher sind, als die Ergebnisse der Studien repräsentieren. Auf Grundlage dieser Ausgangssituation wurde eine empirischen Studie (Untersuchung der Rolle der Lehrer-Schüler-Interaktion durch neue digitale Medien Wiki in der Hochschulbildung und des Lernerfolgs und der Zufriedenheit der Lernenden) durchgeführt. Aus den Ergebnissen wurden Empfehlungen über die Notwendigkeit der pädagogischen Interaktionen zur Unterstützung von Lehr-und Lernaktivitäten in Wiki Kursen abgeleitet, um den Lernerfolg zu verbessern. Die Schlussfolgerungen zeigen die Notwendigkeit für deutliche Änderungen in der Herangehensweise der beruflichen Bildung der Online-Lehrer, um die Anforderungen der neuen digitalen Medien im Einklang mit einer neuen Lernkultur zu erfüllen. Diese Veränderungen beeinhalten im Kern kooperatives statt individuelles Lernen und den Einsatz von IKT-Wiki als ein Werkzeug für die Wissenskonstruktion statt für das Sammeln von Informationen. KW - Web 2.0 KW - Sozial Vernetzung Software KW - Lern-Interaktion KW - Hochschulbildung KW - Wiki KW - Web 2.0 KW - Social networking software KW - Wiki KW - Learning interaction KW - Higher education Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61888 ER - TY - THES A1 - Berger, Florian T1 - Different modes of cooperative transport by molecular motors T1 - Verschiedene Arten kooperativen Transportes mittels molekularer Motoren N2 - Cargo transport by molecular motors is ubiquitous in all eukaryotic cells and is typically driven cooperatively by several molecular motors, which may belong to one or several motor species like kinesin, dynein or myosin. These motor proteins transport cargos such as RNAs, protein complexes or organelles along filaments, from which they unbind after a finite run length. Understanding how these motors interact and how their movements are coordinated and regulated is a central and challenging problem in studies of intracellular transport. In this thesis, we describe a general theoretical framework for the analysis of such transport processes, which enables us to explain the behavior of intracellular cargos based on the transport properties of individual motors and their interactions. Motivated by recent in vitro experiments, we address two different modes of transport: unidirectional transport by two identical motors and cooperative transport by actively walking and passively diffusing motors. The case of cargo transport by two identical motors involves an elastic coupling between the motors that can reduce the motors’ velocity and/or the binding time to the filament. We show that this elastic coupling leads, in general, to four distinct transport regimes. In addition to a weak coupling regime, kinesin and dynein motors are found to exhibit a strong coupling and an enhanced unbinding regime, whereas myosin motors are predicted to attain a reduced velocity regime. All of these regimes, which we derive both by analytical calculations and by general time scale arguments, can be explored experimentally by varying the elastic coupling strength. In addition, using the time scale arguments, we explain why previous studies came to different conclusions about the effect and relevance of motor-motor interference. In this way, our theory provides a general and unifying framework for understanding the dynamical behavior of two elastically coupled molecular motors. The second mode of transport studied in this thesis is cargo transport by actively pulling and passively diffusing motors. Although these passive motors do not participate in active transport, they strongly enhance the overall cargo run length. When an active motor unbinds, the cargo is still tethered to the filament by the passive motors, giving the unbound motor the chance to rebind and continue its active walk. We develop a stochastic description for such cooperative behavior and explicitly derive the enhanced run length for a cargo transported by one actively pulling and one passively diffusing motor. We generalize our description to the case of several pulling and diffusing motors and find an exponential increase of the run length with the number of involved motors. N2 - Lastentransport mittels Motorproteinen ist ein grundlegender Mechanismus aller eukaryotischen Zellen und wird üblicherweise von mehreren Motoren kooperativ durchgeführt, die zu einer oder zu verschiedenen Motorarten wie Kinesin, Dynein oder Myosin gehören. Diese Motoren befördern Lasten wie zum Beispiel RNAs, Proteinkomplexe oder Organellen entlang Filamenten, von denen sie nach einer endlichen zurückgelegten Strecke abbinden. Es ist ein zentrales und herausforderndes Problem zu verstehen, wie diese Motoren wechselwirken und wie ihre Bewegungen koordiniert und reguliert werden. In der vorliegenden Arbeit wird eine allgemeine theoretische Herangehensweise zur Untersuchung solcher Transportprozesse beschrieben, die es uns ermöglicht, das Verhalten von intrazellularem Transport, ausgehend von den Transporteigenschaften einzelner Motoren und ihren Wechselwirkungen, zu verstehen. Wir befassen uns mit zwei Arten kooperativen Transports, die auch kürzlich in verschiedenen in vitro-Experimenten untersucht wurden: (i) gleichgerichteter Transport mit zwei identischen Motorproteinen und (ii) kooperativer Transport mit aktiv schreitenden und passiv diffundierenden Motoren. Beim Lastentransport mit zwei identischen Motoren sind die Motoren elastisch gekoppelt, was eine Verminderung ihrer Geschwindigkeit und/oder ihrer Bindezeit am Filament hervorrufen kann. Wir zeigen, dass solch eine elastische Kopplung im Allgemeinen zu vier verschiedenen Transportcharakteristiken führt. Zusätzlich zu einer schwachen Kopplung, können bei Kinesinen und Dyneinen eine starke Kopplung und ein verstärktes Abbinden auftreten, wohingegen bei Myosin Motoren eine verminderte Geschwindigkeit vorhergesagt wird. All diese Transportcharakteristiken, die wir mit Hilfe analytischer Rechnungen und Zeitskalenargumenten herleiten, können durch Änderung der elastischen Kopplung experimentell untersucht werden. Zusätzlich erklären wir anhand der Zeitskalenargumente, warum frühere Untersuchungen zu unterschiedlichen Erkenntnissen über die Auswirkung und die Wichtigkeit der gegenseitigen Beeinflussung der Motoren gelangt sind. Auf diese Art und Weise liefert unsere Theorie eine allgemeine und vereinheitlichende Beschreibung des dynamischen Verhaltens von zwei elastisch gekoppelten Motorproteinen. Die zweite Art von Transport, die in dieser Arbeit untersucht wird ist der Lastentransport durch aktiv ziehende und passiv diffundierende Motoren. Obwohl die passiven Motoren nicht zum aktiven Transport beitragen, verlängern sie stark die zurückgelegte Strecke auf dem Filament. Denn wenn ein aktiver Motor abbindet, wird das Lastteilchen immer noch am Filament durch den passiven Motor festgehalten, was dem abgebundenen Motor die Möglichkeit gibt, wieder an das Filament anzubinden und den aktiven Transport fortzusetzen. Für dieses kooperative Verhalten entwickeln wir eine stochastische Beschreibung und leiten explizit die verlängerte Transportstrecke für einen aktiv ziehenden und einen passiv diffundierenden Motor her. Wir verallgemeinern unsere Beschreibung für den Fall von mehreren ziehenden und diffundierenden Motoren und finden ein exponentielles Anwachsen der zurückgelegten Strecke in Abhängigkeit von der Anzahl der beteiligten Motoren. KW - molekulare Motoren KW - kooperativer Transport KW - intrazellulärer Transport KW - elastische Kopplung KW - stochastische Prozesse KW - molecular motors KW - cooperative transport KW - intracellular transport KW - elastic coupling KW - stochastic processes Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60319 ER - TY - THES A1 - Ohme, Frank T1 - Bridging the gap between post-Newtonian theory and numerical relativity in gravitational-wave data analysis T1 - Die Verbindung von post-Newtonscher Theorie und Numerischer Relativitätstheorie in der Gravitationswellenanalyse N2 - One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches. N2 - Eine der aufregendsten Vorhersagen aus Einsteins Gravitationstheorie, die bisher noch nicht direkt durch ein Experiment nachgewiesen werden konnten, sind Gravitationswellen. Dies sind winzige Verzerrungen der Raumzeit selbst, und es wird erwartet, dass das aktuelle Netzwerk von groß angelegten Laserinterferometern im kommenden Jahrzehnt die erste direkte Gravitationswellenmessung realisieren kann. Eine potentielle Quelle von messbaren Gravitationswellen ist das Einspiralen und Verschmelzen zweier kompakter Objekte, wie z.B. ein Binärsystem von Schwarzen Löchern. Die erfolgreiche Identifizierung ihrer charakteristischen Signatur im Rausch-dominierten Datenstrom der Detektoren hängt allerdings entscheidend von genauen Vorhersagen ab, was wir eigentlich suchen. In dieser Arbeit wird detailliert untersucht, wie die komplettesten Wellenformenmodelle konstruiert werden können, indem die Ergebnisse von (A) analytischen Entwicklungen im post-Newtonschen Verfahren und (B) numerische Simulationen der voll-relativistischen Bewegungen verknüpft werden. Es werden verschiedene Verfahren zur Erstellung solcher "hybriden Wellenformen", bei denen der post-Newtonsche Teil mit numerischen Daten vervollständigt wird, analysiert. Existierende Strategien für nicht-rotierende Systeme werden vertieft und der beschriebene Parameterraum erweitert. Des Weiteren wird eine Alternative im Fourierraum eingeführt. Die entwickelten Methoden können nun auf multiple sphärisch-harmonische Moden und präzedierende Systeme angewandt werden. Zusätzlich wird die Genauigkeit der hybriden Wellenformen mit dem Ziel analysiert, den Einfluss verschiedener Fehlerquellen in den Näherungstechniken zu quantifizieren und die resultierenden Einschränkungen bei realen Anwendungen abzuschätzen. Dies ist von größter Bedeutung für die zukünftige Entwicklung von verbesserten Modellen, aber auch für die korrekte Interpretation von Gravitationswellenbeobachtungen, die auf Grundlage solcher Familien von Wellenformen gemacht worden sind. Insbesondere wird diskutiert, wie lang der numerische Anteil des Signals sein muss, um die Hybride genau genug konstruieren zu können. Für die aktuell umsetzbaren Simulationslängen wird die Physik eingeschätzt, die mit Hilfe von Modell-basierten Suchen potentiell untersucht werden kann. KW - Schwarze Löcher KW - Gravitationswellen KW - Numerische Relativitätstheorie KW - Datenanalyse KW - Post-Newton KW - black holes KW - gravitational waves KW - numerical relativity KW - data analysis KW - post-Newton Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60346 ER - TY - BOOK A1 - Mehnert, Alexander A1 - Nastansky, Andreas T1 - Staatsverschuldung und Inflation : eine empirische Analyse für Deutschland N2 - In der vorliegenden Arbeit soll der Zusammenhang zwischen Staatsverschuldung und Inflation untersucht werden. Es werden theoretische Übertragungswege von der Staatsverschuldung über die Geldmenge und die langfristigen Zinsen hin zur Inflation gezeigt. Aufbauend auf diesen theoretischen Überlegungen werden die Variablen Staatsverschuldung, Verbraucherpreisindex, Geldmenge M3 und langfristige Zinsen im Rahmen eines Vektor-Fehlerkorrekturmodells untersucht. In der empirischen Analyse werden die Variablen für Deutschland in dem Zeitraum vom 1. Quartal 1991 bis zum 4. Quartal 2010 betrachtet. In ein Vektor-Fehlerkorrekturmodell fließen alle Variablen als potentiell endogen in das Modell ein. Die Ermittlung der Kointegrationsbeziehungen und die Schätzung des Vektor-Fehlerkorrekturmodells erfolgen mithilfe des Johansen-Verfahrens. N2 - In the following study the relation between the public debt and the inflation will be analysed. The transmission from the public debt to the inflation through the money supply and long term interest rate will be shown. Based on these theoretical thoughts the variables public debt, consumer price index, money supply m3 and the long term interest rate will be analysed within a vector error correction model. In the empirical part of this paper we will evaluate the timeperiod from the first quarter in 1991 until the fourth quarter in 2010 for Germany. In a vector error correction model every variable can be taken as endogenous. The variables in the model will be tested for cointegrated relationships and estimated with the Johansen-Approach. T3 - Potsdamer Schriften zu Statistik und Wirtschaft - 2 KW - Staatsverschuldung KW - Zentralbankpolitik KW - Inflation KW - Kointegration KW - Vektor-Fehlerkorrekturmodell KW - Johansen-Verfahren KW - Public Debt KW - Central Bank Policy KW - Inflation KW - Cointegration KW - Vector Error Correction Model KW - Johansen Approach Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59181 SN - 978-3-86956-181-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Wagner, Stefanie T1 - Dario Fos "Morte accidentale di un anarchico" und seine Adaptationen in Frankreich und Deutschland T1 - Dario Fos "Morte accidentale di un anarchico" and its adaptations in France and Germany N2 - Dario Fo (Nobelpreis 1997) ist einer der herausragendsten Erneuerer des italienischen Theaters des 20. Jahrhunderts. Ein Überblick über die wichtigsten Stationen seines künstlerischen Schaffens zeugt zunächst von Fos stetem Bemühen um innovative Ansätze in Bezug auf Theaterkonzeption und –praxis: immer gilt es, sich von den Konventionen des literarischen, bürgerlichen, subventionierten, weitgehend passiv rezipierten Theaters abzugrenzen und das Theater für das Publikum wieder ganzheitlich erfahrbar zu machen. Doch nicht selten geraten er und seine Truppe dabei in Konflikt mit den herrschenden politischen und gesellschaftlichen Umständen. Dies trifft auch auf sein Stück "Morte accidentale di un anarchico" (1970) zu, dessen Analyse im Zentrum dieser Arbeit steht. Ein realhistorischer Fall, der "Fall Pinelli" (bzw. "la strage di Piazza Fontana") 1969, diente Fo als Grundlage seiner sehr zeitnah entstandenen grotesken Farce, die aufgrund ihrer politischen Brisanz für Aufruhr sorgte und die auch im Ausland bis heute immer wieder auf den Spielplänen zu finden ist. Die Arbeit geht daher nicht nur auf die Produktion, Inszenierung und Rezeption des Stücks in Italien ein, sondern nimmt auch die Adaptationen und deren Rezeption in Frankreich und Deutschland in den Blick, wobei die italienspezifische Ausrichtung von Fos Theater (Rekurs auf Traditionen des italienischen Volkstheaters, Verarbeitung (tages)politischen Geschehens etc.) eine besondere Herausforderung für die fremdsprachige Bearbeitung des Stückes und seine Inszenierung darstellt. Neben den produktions- und rezeptionsästhetischen Grundbedingungen des Textes von Dario Fo werden in diesem Zusammenhang auch Spezifika der Bühnenübersetzung beleuchtet und Alternativen hierzu aufgezeigt, die auch bereits von Fos Truppe genutzt werden. N2 - Dario Fo (Premio Nobel 1997) è uno dei drammaturghi e capocomici più innovatori del teatro italiano del ‘900. Verranno mostrate le tappe più importanti del suo percorso artistico che attestano una ricerca incessante di approcci innovativi per la concezione e la prassi teatrali: una lotta acerrima contro le convenzioni del teatro letterario, borghese, sovvenzionato e fruito in modo passivo. Comunque, cercando di ristabilire l’evento teatrale come esperienza olistica, Fo e la sua compagnia si ritrovano spesso in pieno conflitto con la realtà socio-politica e i suoi rappresentanti. Era anche questo il caso del pezzo "Morte accidentale di un anarchico" (1970) di cui questo lavoro presenta un’analisi. Scritta poco dopo la strage di Piazza Fontana (dicembre 1969) e quindi a quell’epoca di scottante attualità politica, questa farsa grottesca fece sorgere grandi tumulti e rimane finora uno dei pezzi più rappresentati, anche all’estero. Pertanto, questo lavoro contempla non solo la produzione, l’allestimento e la ricezione del pezzo in Italia, ma tiene anche conto degli adattamenti e della loro ricezione in Francia e in Germania. Verrà mostrata la sfida per gli adattamenti stranieri che risulta dall’italianità del teatro di Fo (ricorso alla tradizione del teatro popolare italiano, trattamento di fatti socio-politici quotidiani etc.). In questo contesto verranno spiegati anche elementi specifici della traduzione per la scena e indicata qualche alternativa che anche la compagnia di Fo già utilizza. KW - Italienisches Theater KW - Dario Fo KW - Zufälliger Tod eines Anarchisten KW - Blutbad Piazza Fontana KW - Bühnenübersetzung KW - Italian theatre KW - Dario Fo KW - Accidental Death of an Anarchist KW - Piazza Fontana Bombing KW - Drama/Theatre Translation Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60279 ER - TY - THES A1 - Ott, Susan T1 - Feld - fällt - fehlt : Untersuchungen zur Phonologie-Morphosyntax-Schnittstelle bei Kindern und Erwachsenen N2 - Neben der Frequenz eines cues ist es dessen Zuverlässigkeit, die Kindern hilft, die an sie gerichtete Sprache zu segmentieren, Worteinheiten zu erkennen sowie diese syntaktisch zu kategorisieren. Im Deutschen weist die Subsilbe „Langvokal+Konsonant+/t/“ (z.B. in fehlt, wohnt) zuverlässig auf eine -t-flektierte Verbform hin. Die in kindgerichteter Sprache höher frequente Subsilbe „Kurzvokal+Konsonant+/t/“ (z.B. in Feld, Hemd, fällt, rund) gibt hingegen keinen derartig eindeutigen Hinweis. Es wurde der Frage nachgegangen, inwiefern diese unterschiedlichen Zuverlässigkeiten und Frequenzen der Subsilben auf die Nomen-, Verb- und Verbflexionsverarbeitung einwirken. Drei Altersgruppen wurden untersucht: achtzehn Monate alte Kinder, drei- bis fünfjährige sprachunauffällige und -auffällige Kinder sowie erwachsene Sprecher. Einflüsse der unterschiedlichen Zuverlässigkeiten und Frequenzen der ausgewählten Subsilben konnten für alle Probandengruppen gefunden werden. Die Subsilbe stellt damit eine linguistische Größe dar, die in der frühen Sprachwahrnehmung als cue dienen sowie die Sprachverarbeitung Erwachsener lenken kann und auch für die Sprachdiagnostik und -therapie sprachauffälliger Kinder berücksichtigt werden sollte. N2 - Frequency and reliability have an impact on children’s reliance on cues for the segmentation and syntactic categorization of words. In German, the subsyllable “long vowel+consonant+/t/” reliably indicates that a word containing this type of subsyllable is an inflected verb form, e.g. “fehlt” (to lack, 3rd pers. sing.) or “wohnt” (to live, 3rd pers. sing.) In contrast, the more frequent subsyllable “short vowel+consonant+/t/” is not a reliable cue to word class as it occurs not only in inflected verb forms but in monomorphemic nouns and adjectives as well, e.g. “fällt” (to fall, 3rd pers. sing.), “Hemd” (shirt), “Feld” (field) or “rund” (round). This study addresses the question to what extent the different cue properties of subsyllables (i.e. reliability and frequency) have an impact on the processing of nouns, verbs and verb inflection. Participants of three different age groups were recruited: eighteen-month-old children, three- to five-year-old children with typical and atypical language acquisition and adults. Impacts of the different subsyllabic reliabilities and frequencies were found for all groups. This indicates that the subsyllable is a linguistic unit that provides relevant cues for early language acquisition and for language processing in adults. Therefore, it should also be considered for assessment and treatment of children with atypical language acquisition. T3 - Spektrum Patholinguistik - Schriften - 4 KW - Spracherwerb KW - Spracherwerbsstörung KW - Verbflexion KW - Frequenz KW - Phonotaktik KW - Subsilbe KW - language acquisition KW - specific language impairment KW - verb inflection KW - frequency KW - phonotactics KW - subyllable Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57798 SN - 978-3-86956-161-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Krause, Christian A1 - Giese, Holger T1 - Quantitative modeling and analysis of service-oriented real-time systems using interval probabilistic timed automata N2 - One of the key challenges in service-oriented systems engineering is the prediction and assurance of non-functional properties, such as the reliability and the availability of composite interorganizational services. Such systems are often characterized by a variety of inherent uncertainties, which must be addressed in the modeling and the analysis approach. The different relevant types of uncertainties can be categorized into (1) epistemic uncertainties due to incomplete knowledge and (2) randomization as explicitly used in protocols or as a result of physical processes. In this report, we study a probabilistic timed model which allows us to quantitatively reason about nonfunctional properties for a restricted class of service-oriented real-time systems using formal methods. To properly motivate the choice for the used approach, we devise a requirements catalogue for the modeling and the analysis of probabilistic real-time systems with uncertainties and provide evidence that the uncertainties of type (1) and (2) in the targeted systems have a major impact on the used models and require distinguished analysis approaches. The formal model we use in this report are Interval Probabilistic Timed Automata (IPTA). Based on the outlined requirements, we give evidence that this model provides both enough expressiveness for a realistic and modular specifiation of the targeted class of systems, and suitable formal methods for analyzing properties, such as safety and reliability properties in a quantitative manner. As technical means for the quantitative analysis, we build on probabilistic model checking, specifically on probabilistic time-bounded reachability analysis and computation of expected reachability rewards and costs. To carry out the quantitative analysis using probabilistic model checking, we developed an extension of the Prism tool for modeling and analyzing IPTA. Our extension of Prism introduces a means for modeling probabilistic uncertainty in the form of probability intervals, as required for IPTA. For analyzing IPTA, our Prism extension moreover adds support for probabilistic reachability checking and computation of expected rewards and costs. We discuss the performance of our extended version of Prism and compare the interval-based IPTA approach to models with fixed probabilities. N2 - Eine der wichtigsten Herausforderungen in der Entwicklung von Service-orientierten Systemen ist die Vorhersage und die Zusicherung von nicht-funktionalen Eigenschaften, wie Ausfallsicherheit und Verfügbarkeit von zusammengesetzten, interorganisationellen Diensten. Diese Systeme sind oft charakterisiert durch eine Vielzahl von inhärenten Unsicherheiten, welche sowohl in der Modellierung als auch in der Analyse eine Rolle spielen. Die verschiedenen relevanten Arten von Unsicherheiten können eingeteilt werden in (1) epistemische Unsicherheiten aufgrund von unvollständigem Wissen und (2) Zufall als Mittel in Protokollen oder als Resultat von physikalischen Prozessen. In diesem Bericht wird ein probabilistisches, Zeit-behaftetes Modell untersucht, welches es ermöglicht quantitative Aussagen über nicht-funktionale Eigenschaften von einer eingeschränkten Klasse von Service-orientierten Echtzeitsystemen mittels formaler Methoden zu treffen. Zur Motivation und Einordnung wird ein Anforderungskatalog für probabilistische Echtzeitsysteme mit Unsicherheiten erstellt und gezeigt, dass die Unsicherheiten vom Typ (1) und (2) in den untersuchten Systemen einen Ein uss auf die Wahl der Modellierungs- und der Analysemethode haben. Als formales Modell werden Interval Probabilistic Timed Automata (IPTA) benutzt. Basierend auf den erarbeiteten Anforderungen wird gezeigt, dass dieses Modell sowohl ausreichende Ausdrucksstärke für eine realistische und modulare Spezifikation als auch geeignete formale Methoden zur Bestimmung von quantitativen Sicherheits- und Zuverlässlichkeitseigenschaften bietet. Als technisches Mittel für die quantitative Analyse wird probabilistisches Model Checking, speziell probabilistische Zeit-beschränkte Erreichbarkeitsanalyse und Bestimmung von Erwartungswerten für Kosten und Vergütungen eingesetzt. Um die quantitative Analyse mittels probabilistischem Model Checking durchzuführen, wird eine Erweiterung des Prism-Werkzeugs zur Modellierung und Analyse von IPTA eingeführt. Die präsentierte Erweiterung von Prism ermöglicht die Modellierung von probabilistischen Unsicherheiten mittelsWahrscheinlichkeitsintervallen, wie sie für IPTA benötigt werden. Zur Verifikation wird probabilistische Erreichbarkeitsanalyse und die Berechnung von Erwartungswerten durch das Werkzeug unterstützt. Es wird die Performanz der Prism-Erweiterung untersucht und der Intervall-basierte IPTA-Ansatz mit Modellen mit festen Wahrscheinlichkeitswerten verglichen. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 56 KW - Service-orientierte Systme KW - Echtzeitsysteme KW - Quantitative Analysen KW - Formale Verifikation KW - service-oriented systems KW - real-time systems KW - quantitative analysis KW - formal verification methods Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57845 SN - 978-3-86956-171-4 PB - Universitätsverlah Potsdam CY - Potsdam ER - TY - THES A1 - Mari, Andrea T1 - Signatures of non-classicality in optomechanical systems T1 - Nicht klassische Merkmale in optomechanischen Systemen N2 - This thesis contains several theoretical studies on optomechanical systems, i.e. physical devices where mechanical degrees of freedom are coupled with optical cavity modes. This optomechanical interaction, mediated by radiation pressure, can be exploited for cooling and controlling mechanical resonators in a quantum regime. The goal of this thesis is to propose several new ideas for preparing meso- scopic mechanical systems (of the order of 10^15 atoms) into highly non-classical states. In particular we have shown new methods for preparing optomechani-cal pure states, squeezed states and entangled states. At the same time, proce-dures for experimentally detecting these quantum effects have been proposed. In particular, a quantitative measure of non classicality has been defined in terms of the negativity of phase space quasi-distributions. An operational al- gorithm for experimentally estimating the non-classicality of quantum states has been proposed and successfully applied in a quantum optics experiment. The research has been performed with relatively advanced mathematical tools related to differential equations with periodic coefficients, classical and quantum Bochner’s theorems and semidefinite programming. Nevertheless the physics of the problems and the experimental feasibility of the results have been the main priorities. N2 - Die vorliegende Arbeit besteht aus verschiedenen theoretischen Untersuchungen von optomechanischen Systemen, das heißt physikalische Bauteile bei denen mechanische Freiheitsgrade mit Lichtmoden in optischen Kavitäten gekoppelt sind. Diese optimechanischen Wechselwirkungen, die über den Strahlungsdruck vermittelt werden, lassen sich zur Kühlung und Kontrolle von mechanischen Resonatoren im Quantenregime verwenden. Das Ziel dieser Arbeit ist es, verschiedene neue Ideen für Methoden vorzuschlagen, mit denen sich mesoskopische mechanische Systeme (bestehend aus etwa 10^15 Atomen) in sehr nicht-klassischen Zuständen präparieren lassen. Außerdem werden Techniken beschrieben, mit denen sich diese Quateneffekte experimentell beobachten lassen. Insbesondere wird ein quantitatives Maß für Nichtklassizität auf der Basis von Quasiwahrscheinlichkeitsverteilungen im Phasenraum definiert und ein operationeller Algorithmus zu dessen experimenteller Beschrieben, der bereits erfolgreich in einem quantenoptischen Experiment eingesetzt wurde. KW - Quanten Optomechanik KW - gequetschte Zustände KW - nicht klassische Zustände KW - Verschränkung KW - Wigner Funktion KW - Quantum Optomechanics KW - squeezing entanglement KW - Wigner negativity KW - non-classicality Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59814 ER - TY - THES A1 - Basler, Georg T1 - Mass-balanced randomization : a significance measure for metabolic networks T1 - Massebalancierte Randomisierung : ein Maß für Signifikanz in metabolischen Netzwerken N2 - Complex networks have been successfully employed to represent different levels of biological systems, ranging from gene regulation to protein-protein interactions and metabolism. Network-based research has mainly focused on identifying unifying structural properties, including small average path length, large clustering coefficient, heavy-tail degree distribution, and hierarchical organization, viewed as requirements for efficient and robust system architectures. Existing studies estimate the significance of network properties using a generic randomization scheme - a Markov-chain switching algorithm - which generates unrealistic reactions in metabolic networks, as it does not account for the physical principles underlying metabolism. Therefore, it is unclear whether the properties identified with this generic approach are related to the functions of metabolic networks. Within this doctoral thesis, I have developed an algorithm for mass-balanced randomization of metabolic networks, which runs in polynomial time and samples networks almost uniformly at random. The properties of biological systems result from two fundamental origins: ubiquitous physical principles and a complex history of evolutionary pressure. The latter determines the cellular functions and abilities required for an organism’s survival. Consequently, the functionally important properties of biological systems result from evolutionary pressure. By employing randomization under physical constraints, the salient structural properties, i.e., the smallworld property, degree distributions, and biosynthetic capabilities of six metabolic networks from all kingdoms of life are shown to be independent of physical constraints, and thus likely to be related to evolution and functional organization of metabolism. This stands in stark contrast to the results obtained from the commonly applied switching algorithm. In addition, a novel network property is devised to quantify the importance of reactions by simulating the impact of their knockout. The relevance of the identified reactions is verified by the findings of existing experimental studies demonstrating the severity of the respective knockouts. The results suggest that the novel property may be used to determine the reactions important for viability of organisms. Next, the algorithm is employed to analyze the dependence between mass balance and thermodynamic properties of Escherichia coli metabolism. The thermodynamic landscape in the vicinity of the metabolic network reveals two regimes of randomized networks: those with thermodynamically favorable reactions, similar to the original network, and those with less favorable reactions. The results suggest that there is an intrinsic dependency between thermodynamic favorability and evolutionary optimization. The method is further extended to optimizing metabolic pathways by introducing novel chemically feasibly reactions. The results suggest that, in three organisms of biotechnological importance, introduction of the identified reactions may allow for optimizing their growth. The approach is general and allows identifying chemical reactions which modulate the performance with respect to any given objective function, such as the production of valuable compounds or the targeted suppression of pathway activity. These theoretical developments can find applications in metabolic engineering or disease treatment. The developed randomization method proposes a novel approach to measuring the significance of biological network properties, and establishes a connection between large-scale approaches and biological function. The results may provide important insights into the functional principles of metabolic networks, and open up new possibilities for their engineering. N2 - In der Systembiologie und Bioinformatik wurden in den letzten Jahren immer komplexere Netzwerke zur Beschreibung verschiedener biologischer Prozesse, wie Genregulation, Protein-Interaktionen und Stoffwechsel (Metabolismus) rekonstruiert. Ein Hauptziel der Forschung besteht darin, die strukturellen Eigenschaften von Netzwerken für Vorhersagen über deren Funktion nutzbar zu machen, also eine Verbindung zwischen Netzwerkeigenschaften und Funktion herzustellen. Die netzwerkbasierte Forschung zielte bisher vor allem darauf ab, gemeinsame Eigenschaften von Netzwerken unterschiedlichen Ursprungs zu entdecken. Dazu zählen die durchschnittliche Länge von Verbindungen im Netzwerk, die Häufigkeit redundanter Verbindungen, oder die hierarchische Organisation der Netzwerke, welche als Voraussetzungen für effiziente Kommunikationswege und Robustheit angesehen werden. Dabei muss zunächst bestimmt werden, welche Eigenschaften für die Funktion eines Netzwerks von besonderer Bedeutung (Signifikanz) sind. Die bisherigen Studien verwenden dafür eine Methode zur Erzeugung von Zufallsnetzwerken, welche bei der Anwendung auf Stoffwechselnetzwerke unrealistische chemische Reaktionen erzeugt, da sie physikalische Prinzipien missachtet. Es ist daher fraglich, ob die Eigenschaften von Stoffwechselnetzwerken, welche mit dieser generischen Methode identifiziert werden, von Bedeutung für dessen biologische Funktion sind, und somit für aussagekräftige Vorhersagen in der Biologie verwendet werden können. In meiner Dissertation habe ich eine Methode zur Erzeugung von Zufallsnetzwerken entwickelt, welche physikalische Grundprinzipien berücksichtigt, und somit eine realistische Bewertung der Signifikanz von Netzwerkeigenschaften ermöglicht. Die Ergebnisse zeigen anhand der Stoffwechselnetzwerke von sechs Organismen, dass viele der meistuntersuchten Netzwerkeigenschaften, wie das Kleine-Welt-Phänomen und die Vorhersage der Biosynthese von Stoffwechselprodukten, von herausragender Bedeutung für deren biologische Funktion sind, und somit für Vorhersagen und Modellierung verwendet werden können. Die Methode ermöglicht die Identifikation von chemischen Reaktionen, welche wahrscheinlich von lebenswichtiger Bedeutung für den Organismus sind. Weiterhin erlaubt die Methode die Vorhersage von bisher unbekannten, aber physikalisch möglichen Reaktionen, welche spezifische Zellfunktionen, wie erhöhtes Wachstum in Mikroorganismen, ermöglichen könnten. Die Methode bietet einen neuartigen Ansatz zur Bestimmung der funktional relevanten Eigenschaften biologischer Netzwerke, und eröffnet neue Möglichkeiten für deren Manipulation. KW - Bioinformatik KW - Metabolische Netzwerke KW - Signifikanz KW - Randomisierung KW - Nullmodell KW - computational biology KW - metabolic networks KW - significance KW - randomization KW - null model Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62037 ER - TY - THES A1 - Branscheid, Anja T1 - Phosphate homeostasis and posttranscriptional gene regulation during arbuscular mycorrhizal symbiosis in Medicago truncatula T1 - Phosphat-Homoeostase und posttranskriptionelle Genregulation waehrend der arbuskulaeren Mykorrhiza-Symbiose in Medicago truncatula N2 - Since available phosphate (Pi) resources in soil are limited, symbiotic interactions between plant roots and arbuscular mycorrhizal (AM) fungi are a widespread strategy to improve plant phosphate nutrition. The repression of AM symbiosis by a high plant Pi-status indicates a link between Pi homeostasis signalling and AM symbiosis development. This assumption is supported by the systemic induction of several microRNA399 (miR399) primary transcripts in shoots and a simultaneous accumulation of mature miR399 in roots of mycorrhizal plants. However, the physiological role of this miR399 expression pattern is still elusive and offers the question whether other miRNAs are also involved in AM symbiosis. Therefore, a deep sequencing approach was applied to investigate miRNA-mediated posttranscriptional gene regulation in M. truncatula mycorrhizal roots. Degradome analysis revealed that 185 transcripts were cleaved by miRNAs, of which the majority encoded transcription factors and disease resistance genes, suggesting a tight control of transcriptional reprogramming and a downregulation of defence responses by several miRNAs in mycorrhizal roots. Interestingly, 45 of the miRNA-cleaved transcripts showed a significant differentially regulated between mycorrhizal and non-mycorrhizal roots. In addition, key components of the Pi homeostasis signalling pathway were analyzed concerning their expression during AM symbiosis development. MtPhr1 overexpression and time course expression data suggested a strong interrelation between the components of the PHR1-miR399-PHO2 signalling pathway and AM symbiosis, predominantly during later stages of symbiosis. In situ hybridizations confirmed accumulation of mature miR399 in the phloem and in arbuscule-containing cortex cells of mycorrhizal roots. Moreover, a novel target of the miR399 family, named as MtPt8, was identified by the above mentioned degradome analysis. MtPt8 encodes a Pi-transporter exclusively transcribed in mycorrhizal roots and its promoter activity was restricted to arbuscule-containing cells. At a low Pi-status, MtPt8 transcript abundance inversely correlated with a mature miR399 expression pattern. Increased MtPt8 transcript levels were accompanied by elevated symbiotic Pi-uptake efficiency, indicating its impact on balancing plant and fungal Pi-acquisition. In conclusion, this study provides evidence for a direct link of the regulatory mechanisms of plant Pi-homeostasis and AM symbiosis at a cell-specific level. The results of this study, especially the interaction of miR399 and MtPt8 provide a fundamental step for future studies of plant-microbe-interactions with regard to agricultural and ecological aspects. N2 - Phosphat ist ein essentieller Bestandteil der pflanzlichen Ernährung und ein Mangel führt zu schwerwiegenden Folgen für Wachstum, Entwicklung und Reproduktion der Pflanze. Eine der wichtigsten Strategien, um einen Mangel an löslichem Phosphat im Boden auszugleichen, ist die arbuskuläre Mykorrhiza, einer Wurzelsymbiose zwischen Pflanzen und im Boden lebenden Mykorrhizapilzen. Die Symbiose dient dem gegenseitigen Nährstoffaustausch, der über bäumchenartige Strukturen in Wurzelzellen, den Arbuskeln, realisiert wird. Über ein weit reichendes Netzwerk im Boden verbessert der Pilz die Phosphatversorgung der Pflanzen, wohingegen die Pflanze photosynthetisch erzeugte Zucker zur Verfügung stellt. Ein erhöhter Phosphatgehalt in der Pflanze führt zur Unterdrückung der Symbiose. Da weitestgehend unbekannt ist, wie genau Pflanzen diese Einschränkung der Symbiose regulieren, kann die Erforschung dieses Zusammenhangs einen wichtigen Beitrag für Agrarwirtschaft und Umweltschutz leisten. Im Rahmen dieser Arbeit konnte durch die Entdeckung eines neuen, bisher unbekannten Zielgens aufgezeigt werden, dass die für den Ausgleich des pflanzlichen Phosphathaushalts wichtige Mikro-RNA (miR) 399 auch in der Regulation der arbuskulären Mykorrhizasymbiose von besonderer Bedeutung ist. MiRNAs regulieren die Aktivität von Zielgenen indem sie die jeweiligen Transkripte durch Bindung für den Abbau markieren. In kolonisierten Wurzeln, insbesondere in arbuskelhaltigen Wurzelzellen, konnte eine erhöhte Anhäufung der miR399 beobachtet werden. Durch das Verfahren der Hochdurchsatz-Sequenzierung des Wurzeldegradoms, bei dem alle abgebauten Transkripte analysiert werden, konnte das neue Zielgen der miR399 Familie, MtPT8, identifiziert werden. Dieses codiert für einen Phosphat-Transporter, der diesen Studien zufolge ausschließlich in mykorrhizierten Wurzeln vorkommt und dessen Transkription auf arbuskelhaltige Zellen beschränkt ist. Mit der Identifizierung dieses neuen Zielgens konnte erstmals der Beweis für die direkte Verbindung der pflanzlichen Phosphathomöostase durch miR399 und der arbuskulären Mykorrhizasymbiose gezeigt werden. Die Untersuchung der physiologischen Funktion dieses mykorrhizaspezifischen Phosphat-Transporters bietet die Möglichkeit, die Zusammenhänge der phosphatabhängigen Regulation der Symbiose aufzuklären und weit reichende Einblicke in die Regulationsmechanismen während der Pflanze-Pilz-Interaktion zu erhalten. KW - Mykorrhizasymbiose KW - Phosphat KW - mikroRNA399 KW - Degradom KW - symbiose-relevante mikroRNA-Targets KW - Mycorrhizal symbiosis KW - phosphate KW - microRNA399 KW - degradome KW - symbiosis-relevant microRNA targets Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62106 ER - TY - BOOK A1 - Giese, Holger A1 - Hildebrandt, Stephan A1 - Neumann, Stefan A1 - Wätzoldt, Sebastian T1 - Industrial case study on the integration of SysML and AUTOSAR with triple graph grammars N2 - During the overall development of complex engineering systems different modeling notations are employed. For example, in the domain of automotive systems system engineering models are employed quite early to capture the requirements and basic structuring of the entire system, while software engineering models are used later on to describe the concrete software architecture. Each model helps in addressing the specific design issue with appropriate notations and at a suitable level of abstraction. However, when we step forward from system design to the software design, the engineers have to ensure that all decisions captured in the system design model are correctly transferred to the software engineering model. Even worse, when changes occur later on in either model, today the consistency has to be reestablished in a cumbersome manual step. In this report, we present in an extended version of [Holger Giese, Stefan Neumann, and Stephan Hildebrandt. Model Synchronization at Work: Keeping SysML and AUTOSAR Models Consistent. In Gregor Engels, Claus Lewerentz, Wilhelm Schäfer, Andy Schürr, and B. Westfechtel, editors, Graph Transformations and Model Driven Enginering - Essays Dedicated to Manfred Nagl on the Occasion of his 65th Birthday, volume 5765 of Lecture Notes in Computer Science, pages 555–579. Springer Berlin / Heidelberg, 2010.] how model synchronization and consistency rules can be applied to automate this task and ensure that the different models are kept consistent. We also introduce a general approach for model synchronization. Besides synchronization, the approach consists of tool adapters as well as consistency rules covering the overlap between the synchronized parts of a model and the rest. We present the model synchronization algorithm based on triple graph grammars in detail and further exemplify the general approach by means of a model synchronization solution between system engineering models in SysML and software engineering models in AUTOSAR which has been developed for an industrial partner. In the appendix as extension to [19] the meta-models and all TGG rules for the SysML to AUTOSAR model synchronization are documented. N2 - Bei der Entwicklung komplexer technischer Systeme werden verschiedene Modellierungssprachen verwendet. Zum Beispiel werden bei der Entwicklung von Systemen in der Automobilindustrie bereits früh im Entwicklungsprozess Systemmodelle verwendet, um die Anforderungen und die grobe Struktur des Gesamtsystems darzustellen. Später werden Softwaremodelle verwendet, um die konkrete Softwarearchitektur zu modellieren. Jedes Modell stellt spezifische Entwurfsaspekte mit Hilfe passender Notationen auf einem angemessenen Abstraktionsniveau dar. Wenn jedoch vom Systementwurf zum Softwareentwurf übergegangen wird, müssen die Entwicklungsingenieure sicherstellen, dass alle Entwurfsentscheidungen, die im Systemmodell enthalten sind, korrekt auf das Softwaremodell übertragen werden. Sobald danach auch noch Änderungen auftreten, muss die Konsistenz zwischen den Modellen in einem aufwändigen manuellen Schritt wiederhergestellt werden. In diesem Bericht zeigen wir, wie Modellsynchronisation und Konsistenzregeln zur Automatisierung dieses Arbeitsschrittes verwendet und die Konsistenz zwischen den Modellen sichergestellt werden können. Außerdem stellen wir einen allgemeinen Ansatz zur Modellsynchronisation vor. Neben der reinen Synchronisation umfasst unsere Lösung weiterhin Tool-Adapter, sowie Konsistenzregeln, die sowohl die Teile der Modelle abdecken, die synchronisiert werden können, als auch die restlichen Teile. Der Modellsynchronisationsalgorithmus basiert auf Tripel-Graph-Grammatiken und wird im Detail erläutert. An Hand einer konkreten Transformation zwischen SysML- und AUTOSAR-Modellen, die im Rahmen eines Industrieprojektes entwickelt wurde, wird der Ansatz demonstriert. Im Anhang des Berichts sind alle TGG-Regeln für die SysML-zu-AUTOSAR-Transformation dokumentiert. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 57 KW - Model Transformation KW - Model Synchronisation KW - SysML KW - AUTOSAR KW - Tripel-Graph-Grammatik KW - Model Transformation KW - Model Synchronization KW - SysML KW - AUTOSAR KW - Triple Graph Grammar Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60184 SN - 978-3-86956-191-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kluth, Oliver T1 - Einfluss von Glucolipotoxizität auf die Funktion der β-Zellen diabetessuszeptibler und –resistenter Mausstämme T1 - Effects of glucolipotoxicity on beta-cells of diabetes-susceptible and diabetes-resistant mouse strains N2 - Ziel der vorliegenden Arbeit war es, die Auswirkungen von Glucose- und Lipidtoxizität auf die Funktion der β-Zellen von Langerhans-Inseln in einem diabetesresistenten (B6.V-Lepob/ob, ob/ob) sowie diabetessuszeptiblen (New Zealand Obese, NZO) Mausmodell zu untersuchen. Es sollten molekulare Mechanismen identifiziert werden, die zum Untergang der β-Zellen in der NZO-Maus führen bzw. zum Schutz der β-Zellen der ob/ob-Maus beitragen. Zunächst wurde durch ein geeignetes diätetisches Regime in beiden Modellen durch kohlenhydratrestriktive Ernährung eine Adipositas(Lipidtoxizität) induziert und anschließend durch Fütterung einer kohlenhydrathaltigen Diät ein Zustand von Glucolipotoxizität erzeugt. Dieses Vorgehen erlaubte es, in der NZO-Maus in einem kurzen Zeitfenster eine Hyperglykämie sowie einen β-Zelluntergang durch Apoptose auszulösen. Im Vergleich dazu blieben ob/ob-Mäuse längerfristig normoglykämisch und wiesen keinen β-Zelluntergang auf. Die Ursache für den β-Zellverlust war die Inaktivierung des Insulin/IGF-1-Rezeptor-Signalwegs, wie durch Abnahme von phospho-AKT, phospho-FoxO1 sowie des β-zellspezifischen Transkriptionsfaktors PDX1 gezeigt wurde. Mit Ausnahme des Effekts einer Dephosphorylierung von FoxO1, konnten ob/ob-Mäuse diesen Signalweg aufrechterhalten und dadurch einen Verlust von β-Zellen abwenden. Die glucolipotoxischen Effekte wurden in vitro an isolierten Inseln beider Stämme und der β-Zelllinie MIN6 bestätigt und zeigten, dass ausschließlich die Kombination hoher Glucose und Palmitatkonzentrationen (Glucolipotoxizität) negative Auswirkungen auf die NZO-Inseln und MIN6-Zellen hatte, während ob/ob-Inseln davor geschützt blieben. Die Untersuchung isolierter Inseln ergab, dass beide Stämme unter glucolipotoxischen Bedingungen keine Steigerung der Insulinexpression aufweisen und sich bezüglich ihrer Glucose-stimulierten Insulinsekretion nicht unterscheiden. Mit Hilfe von Microarray- sowie immunhistologischen Untersuchungen wurde gezeigt, dass ausschließlich ob/ob-Mäuse nach Kohlenhydratfütterung eine kompensatorische transiente Induktion der β-Zellproliferation aufwiesen, die in einer nahezu Verdreifachung der Inselmasse nach 32 Tagen mündete. Die hier erzielten Ergebnisse lassen die Schlussfolgerung zu, dass der β-Zelluntergang der NZO-Maus auf eine Beeinträchtigung des Insulin/IGF-1-Rezeptor-Signalwegs sowie auf die Unfähigkeit zur β- Zellproliferation zurückgeführt werden kann. Umgekehrt ermöglichen der Erhalt des Insulin/IGF-1-Rezeptor-Signalwegs und die Induktion der β-Zellproliferation in der ob/ob-Maus den Schutz vor einer Hyperglykämie und einem Diabetes. N2 - The aim of the project was to investigate the impact of glucose- and fatty acid toxicity on β-cell function in a diabetes susceptible (New Zealand Obese, NZO) and resistant (B6.V-Lepob/ob, ob/ob)mouse model. Specifically, the molecular mechanisms of glucolipotoxicity-induced β-cell failure in the NZO mouse and pathways which contribute to protection of ob/ob mice against diet-induced type 2 diabetes should be elucidated. First, the animals were fed a fat-enriched carbohydrate-free diet which resulted in severe obesity and insulin resistance (lipotoxicity). Subsequently, mice were exposed to a carbohydrate-containing diet to induce conditions of glucolipotoxicity. This sequential dietary regimen provides a convenient method to induce rapid hyperglycaemia with β-cell destruction by apoptosis in a short time frame in NZO mice. In contrast, long-term exposure of ob/ob mice to the same dietary regimen leads to normoglycaemia and a protection against β-cell failure. The molecular mechanism behind carbohydrate-mediated β-cell destruction in NZO mice was an inactivation of the insulin/IGF-1 receptor signaling pathway including loss of phospho-AKT, phospho-FoxO1 and of the β-cell specific transcription factor PDX1. With the exception of FoxO1-dephosphorylation, ob/ob mice maintained this survival pathway and therefore were protected against loss of β-cells. The adverse effects of glucolipotoxicity on β-cells were verified in vitro by treatment of isolated NZO-islets and MIN6-cells under glucolipotoxic conditions. Only the combination of high glucose in the presence of palmitate caused deterioration of NZO-islets and MIN6-cells whereas ob/ob-islets were protected. The investigation of the insulin expression pattern showed, that glucolipotoxic conditions inhibited a glucose-induced increase in insulin expression in both, NZO and ob/ob islets. Furthermore, NZO and ob/ob-islets did not differ in glucose-stimulated insulin secretion. Expression profiling and immunohistochemical analyses of islets from NZO and ob/ob mice before and after carbohydrate intervention revealed a transient induction of a compensatory β-cell proliferation. During a 32 day carbohydrate feeding islet mass of ob/ob mice increased almost 3-fold. In conclusion, β-cell failure in NZO mice was induced via impairment of the insulin/IGF-1 signaling pathway and the inability to adequately increase β-cell mass by proliferation. Conversely, maintenance of the insulin/IGF-1 receptor signaling pathway and the induction of β-cell proliferation protected ob/ob mice against hyperglycaemia and type 2 diabetes. KW - Glucolipotoxizität KW - Beta-Zelle KW - NZO KW - ob/ob KW - Diabetes KW - glucolipotoxicity KW - beta-cell KW - NZO KW - ob/ob KW - diabetes Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61961 ER - TY - THES A1 - Deneke, Carlus T1 - Theory of mRNA degradation T1 - Theoretische Beschreibung des Abbaus von mRNA N2 - One of the central themes of biology is to understand how individual cells achieve a high fidelity in gene expression. Each cell needs to ensure accurate protein levels for its proper functioning and its capability to proliferate. Therefore, complex regulatory mechanisms have evolved in order to render the expression of each gene dependent on the expression level of (all) other genes. Regulation can occur at different stages within the framework of the central dogma of molecular biology. One very effective and relatively direct mechanism concerns the regulation of the stability of mRNAs. All organisms have evolved diverse and powerful mechanisms to achieve this. In order to better comprehend the regulation in living cells, biochemists have studied specific degradation mechanisms in detail. In addition to that, modern high-throughput techniques allow to obtain quantitative data on a global scale by parallel analysis of the decay patterns of many different mRNAs from different genes. In previous studies, the interpretation of these mRNA decay experiments relied on a simple theoretical description based on an exponential decay. However, this does not account for the complexity of the responsible mechanisms and, as a consequence, the exponential decay is often not in agreement with the experimental decay patterns. We have developed an improved and more general theory of mRNA degradation which provides a general framework of mRNA expression and allows describing specific degradation mechanisms. We have made an attempt to provide detailed models for the regulation in different organisms. In the yeast S. cerevisiae, different degradation pathways are known to compete and furthermore most of them rely on the biochemical modification of mRNA molecules. In bacteria such as E. coli, degradation proceeds primarily endonucleolytically, i.e. it is governed by the initial cleavage within the coding region. In addition, it is often coupled to the level of maturity and the size of the polysome of an mRNA. Both for S. cerevisiae and E. coli, our descriptions lead to a considerable improvement of the interpretation of experimental data. The general outcome is that the degradation of mRNA must be described by an age-dependent degradation rate, which can be interpreted as a consequence of molecular aging of mRNAs. Within our theory, we find adequate ways to address this much debated topic from a theoretical perspective. The improvements of the understanding of mRNA degradation can be readily applied to further comprehend the mRNA expression under different internal or environmental conditions such as after the induction of transcription or stress application. Also, the role of mRNA decay can be assessed in the context of translation and protein synthesis. The ultimate goal in understanding gene regulation mediated by mRNA stability will be to identify the relevance and biological function of different mechanisms. Once more quantitative data will become available, our description allows to elaborate the role of each mechanism by devising a suitable model. N2 - Ein zentrales Ziel der modernen Biologie ist es, ein umfassendes Verständnis der Genexpression zu erlangen. Die fundamentalen Prozesse sind im zentralen Dogma der Genexpression zusammengefasst: Die genetische Information wird von DNA in Boten-RNAs (mRNA) transkribiert und im Prozess der Translation von mRNA in Proteine übersetzt. Zum Erhalt ihrer Funktionalität und der Möglichkeit von Wachstum und Fortpflanzung muss in jeder Zelle und für jedes Gen die optimale Proteinkonzentration akkurat eingestellt werden. Hierzu hat jeder Organismus detaillierte Regulationsmechanismen entwickelt. Regulation kann auf allen Stufen der Genexpression erfolgen, insbesondere liefert der Abbau der mRNA-Moleküle einen effizienten und direkten Kontrollmechanismus. Daher sind in allen Lebewesen spezifische Mechanismen - die Degradationsmechanismen - entstanden, welche aktiv den Abbau befördern. Um ein besseres Verständnis von den zugrunde liegenden Prozessen zu erlangen, untersuchen Biochemiker die Degradationsmechanismen im Detail. Gleichzeitig erlauben moderne molekularbiologische Verfahren die simultane Bestimmung der Zerfallskurven von mRNA für alle untersuchten Gene einer Zelle. Aus theoretischer Perspektive wird der Zerfall der mRNA-Menge als exponentieller Zerfall mit konstanter Rate betrachtet. Diese Betrachtung dient der Interpretation der zugrunde liegenden Experimente, berücksichtigt aber nicht die fundierten Kenntnisse über die molekularen Mechanismen der Degradation. Zudem zeigen viele experimentelle Studien ein deutliches Abweichen von einem exponentiellen Zerfall. In der vorliegenden Doktorarbeit wird daher eine erweiterte theoretische Beschreibung für die Expression von mRNA-Molekülen eingeführt. Insbesondere lag der Schwerpunkt auf einer verbesserten Beschreibung des Prozesses der Degradation. Die Genexpression kann als ein stochastischer Prozess aufgefasst werden, in dem alle Einzelprozesse auf zufällig ablaufenden chemischen Reaktionen basieren. Die Beschreibung erfolgt daher im Rahmen von Methoden der stochastischen Modellierung. Die fundamentale Annahme besteht darin, dass jedes mRNA-Molekül eine zufällige Lebenszeit hat und diese Lebenszeit für jedes Gen durch eine statistische Lebenszeitverteilung gegeben ist. Ziel ist es nun, spezifische Lebenszeitverteilungen basierend auf den molekularen Degradationsmechanismen zu finden. In dieser Arbeit wurden theoretische Modelle für die Degradation in zwei verschiedenen Organismen entwickelt. Zum einen ist bekannt, dass in eukaryotischen Zellen wie dem Hefepilz S. cerevisiae mehrere Mechanismen zum Abbau der mRNA-Moleküle in Konkurrenz zueinander stehen. Zudem ist der Abbau durch mehrere geschwindigkeitsbestimmende biochemische Schritte charakterisiert. In der vorliegenden Arbeit wurden diese Feststellungen durch ein theoretisches Modell beschrieben. Eine Markow-Kette stellte sich als sehr erfolgreich heraus, um diese Komplexität in eine mathematisch-fassbare Form abzubilden. Zum anderen wird in Kolibakterien die Degradation überwiegend durch einen initialen Schnitt in der kodierenden Sequenz der mRNA eingeleitet. Des Weiteren gibt es komplexe Wechselwirkungen mit dem Prozess der Translation. Die dafür verantwortlichen Enzyme - die Ribosomen - schützen Teile der mRNA und vermindern dadurch deren Zerfall. In der vorliegenden Arbeit wurden diese Zusammenhänge im Rahmen eines weiteren spezifischen, theoretischen Modells untersucht. Beide Mechanismen konnten an experimentellen Daten verifiziert werden. Unter anderem konnten dadurch die Interpretation der Zerfallsexperimente deutlich verbessert und fundamentale Eigenschaften der mRNA-Moleküle bestimmt werden. Ein Vorteil der statistischen Herangehensweise in dieser Arbeit liegt darin, dass theoretische Konzepte für das molekulare Altern der mRNAs entwickelt werden konnten. Mit Hilfe dieser neuentwickelten Methode konnte gezeigt werden, dass sich die Komplexität der Abbaumechanismen in einem Alterungsprozess manifestiert. Dieser kann mit der Lebenserwartung von einzelnen mRNA-Molekülen beschrieben werden. In dieser Doktorarbeit wurde eine verallgemeinerte theoretische Beschreibung des Abbaus von mRNAMolek ülen entwickelt. Die zentrale Idee basiert auf der Verknüpfung von experimentellen Zerfallsmessungen mit den biochemischen Mechanismen der Degradation. In zukünftigen experimentellen Untersuchungen können die entwickelten Verfahren angewandt werden, um eine genauere Interpretation der Befunde zu ermöglichen. Insbesondere zeigt die Arbeit auf, wie verschiedene Hypothesen über den Degradationsmechanismus anhand eines geeigneten mathematischen Modells durch quantitative Experimente verifiziert oder falsifiziert werden können. KW - Abbau von Boten-RNS KW - Stochastische Genexpression KW - Posttranskriptionale Genregulation KW - Nichtexponentieller Zerfall von mRNA KW - Molekulares Altern KW - Degradation of messenger RNA KW - Stochastic gene expression KW - Post-transcriptional gene regulation KW - Non-exponential mRNA decay KW - Molecular Aging Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61998 ER - TY - BOOK A1 - Wunderlich, Ralf T1 - Der kluge Spieler und die Ethik des Computerspielens T1 - The prudent player and the ethics of computer gaming N2 - „Der kluge Spieler und die Ethik des Computerspielens“ ist eine moralphilosophische Analyse der sogenannten „Killerspiel-Diskussion“. Als Aufhänger dient der Amoklauf von Winnenden, in dessen Nachgang Diskussionen über Computerspiele, speziell solche mit gewalthaltigem Inhalt, aufkamen. In der öffentlichen Meinung wird häufig davon ausgegangen, dass das Spielen solcher Computerspiele auch in der Realität zu gewalttätigem Verhalten führt. Einige Politiker stellen diese Spiele sogar mit Kinderpornographie gleich. Mithilfe dreier bekannter normativer ethischer Theorien – dem Konsequentialismus (Mill), der Deontologie (Kant) und der Tugendethik (Aristoteles) – werden die wissenschaftlichen Argumente contra Computerspiele analysiert und bewertet. Die Computerspielgegner konzentrieren sich auf den Inhalt und die grafische Darstellung der Spiele (narratologischer Ansatz). Am Ende einer ausführlichen Darstellung ihrer Argumente stellt sich heraus, dass keines davon haltbar ist, wenn man die ethischen Theorien auf sie anwendet. Einzig der tugendethische Ansatz scheint Ansätze zu bieten, auf denen man aufbauen kann, allerdings nicht gegen, sondern für Spiele. Diesem wird im zweiten Teil des Buches nachgegangen. Miguel Sicarts Werk „The Ethics of Computer Games“ versucht, eine konkrete Ethik des Computerspiels zu entwickeln. In „Der kluge Spieler und die Ethik des Computerspielens“ wird Sicarts Werk zum ersten Mal im Deutschen vorgestellt, in seine einzelnen Bestandteile zerlegt und re-strukturiert. In Sicarts Ethik-Konzept für Computerspiele werden die Inhalte und die Grafik der Computerspiele komplett außen vor gelassen. Sein Ansatz ist ein ludologischer (spielwissenschaftlicher), der das Regelwerk und System der Spiele in den Vordergrund schiebt. Die drei Kernelemente seiner Theorie werden dargestellt: 1. das Computerspiel als moralisches Objekt, 2. der Computerspieler als moralisches Subjekt und 3. das Computerspielen als moralische Handlung. Diese drei Aspekte wirken zusammen und miteinander. Es entsteht eine Wechselwirkung zwischen dem Spiel und dem Spieler, in den auch das Nicht-Spieler-Subjekt einbezogen wird. Ein Mensch spielt ein Computerspiel und wird dadurch zum Spieler dieses Spiels. Er nimmt das Regelwerk auf und ruft seine vorhandene Erfahrung aus früheren Spielen ab, um somit ein möglichst gelungenes Spielen zu bewerkstelligen. Damit ist gemeint, dass er nicht schummelt, dass er keine Tricks anwendet, dass er in Mehrspielerspielen Fairplay walten lässt etc. Zusätzlich ist dieser Spieler aber nicht nur ein Spieler, sondern er befindet sich in sozialen Kontexten, hat Werte und Ansichten und diese fließen in sein Spieler-Repertoire ein. In solch einer Wechselwirkung verhält sich der Spieler moralisch korrekt, wenn er dem Spiel zu dem verhilft, was es ist: eine Erfahrung. Das Spiel ist nämlich zweierlei: 1. Das Objekt, also eine CD in einer Hülle mit einer Spielanleitung etc. 2. Das Spiel, das am Bildschirm tatsächlich erfahren wird, indem es gespielt wird. Sieht das Spiel eine gewalthaltige Lösung vor, ist es in Sicarts Ethik des Computerspiels moralisch richtig, diese zu vollziehen. Was Sicart mit seiner Theorie letztendlich zeichnet, ist das Bild eines „klugen Spielers“. Der dritte Teil des Buches analysiert Sicarts Ethik des Computerspiels und zeigt mithilfe eines praktischen Beispiels seine Schwachstelle auf. Während die Computerspielgegner sich ausschließlich auf den Inhalt und die Grafik konzentrieren, ignoriert Sicart sie gänzlich. Somit stellen beide Ansätze Extrempositionen dar. Sicarts Ansatz wird in eine „Ethik des Computerspielens“ uminterpretiert und anschließend auf die Diskussionen rund um den Amoklauf von Winnenden angewendet. Dadurch können die Ausgangsargumente gegen Killerspiele endgültig wissenschaftlich widerlegt werden. Im letzten Teil des Buches wird die Brücke zum tugendethischen Ansatz des Aristoteles geschlagen: der gemäßigte Mittelweg führt zu einem guten Leben. Eine komplette Computerspielethik muss beide Aspekte beinhalten: den grafisch-inhaltlichen („narratologischen“) und den spieltechnischen („ludologischen“) Ansatz. Nur im Zusammenspiel beider kann eine umfassende Computerspielethik gesucht und gefunden werden. Hierzu wird ein Grundgerüst vorgeschlagen sowie zwei Ideen, welche für weitere Forschung auf dem Gebiet verwendet werden können. N2 - “The Prudent Player and the Ethics of Computer Gaming” is a moral philosophical analysis of the so called “killergame-controversy”. After the gun rampage of Winnenden, heavy discussions arose in Germany about video games, especially those with violent content. The public opinion is that violent video games cause violent behaviour in real life. Some German politicians even claimed that such games would be on one level with child pornography. With the help of three known normative ethical theories – consequentialism (Mill), deontology (Kant) and virtue ethics (Aristoteles) – the scientific arguments against video games are analysed and evaluated. The opponents of video games focus on the content and graphics of the games (narratological approach). After an extensive presentation of their arguments, it turns out that none remains valid after applying the ethical theories to them. Solely the virtue ethics approach seems to be of help, however not against but in aid of video games. This is dealt with in the second part of the book. Miguel Sicart’s work “The Ethics of Computer Games” tries to develop a tangible ethics for computer games. “The Clever Player and the Ethics of Computer Gaming” presents Sicart’s theory for the first time in German and re-structures it’s content by focussing on the main ingredients of his theory. Sicart’s concept does not include any content or graphical aspects. It is a strictly ludological (game studies) approach which focuses on the rules and the system of the games. The three main elements of his theory are: 1. the video game as a moral object, 2. the player as a moral subject and 3. playing video games as a moral act. These three aspects work together. The result is an interaction between the game and the player which also includes the non-playing-subject of the player. A person starts playing a video game and hence becomes the player of this game. He acts according to the rules and uses his previous experience with other games in order to play as properly as possible. This means that he does not cheat, does not use tricks, acts with fair play in multiplayer games etc. Since the player is more than just a player, he also uses his virtues and perspectives from the real world as a player-tool. The player acts morally correct in such an interaction, if he helps the game become an experience rather than a mere object (CD/DVD). Only when a game is experienced on the screen by a player, it becomes a real game as intended by it’s designers. And if this game needs a violent on-screen solution for solving a problem, then the player ought to do so. The player which Sicart describes is a “clever player” and not some sort of zombie without thoughts and evaluation of what is happening. The third part of the book analyses Sicart’s framework and shows his weakness with the help of a practical example. While the opponents of video games focus on the content and graphics only, Sicart’s approach does not include them at all. Therefore, both positions are extreme and Sicart’s point of view is re-interpreted into an “Ethics of Computer Gaming”, pointing out the active part of his theory. Now it is scientifically possible to prove all arguments against video games following the Winnenden-controversy wrong at one go. The last part of the book goes back to Aristoteles’ view on ethics: living a good life means finding the middle ground between extremes. Hence, a complete ethics of computer games needs both approaches: the narratological (graphics and content) and the ludological (rules and game systems). Only when both are combined, a real ethics of computer games is possible. A framework for such a theory is proposed as well as two ideas which can be helpful for further research in this field. T3 - DIGAREC Series - 07 KW - Ethik KW - Computerspiel KW - Killerspiel KW - Amoklauf KW - Sicart KW - ethics KW - video game KW - rampage KW - Sicart KW - video game controversy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-55518 SN - 978-3-86956-115-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - RPRT A1 - Andree, Kai A1 - Schwan, Mike T1 - Collusive market sharing with spatial competition N2 - This paper develops a spatial model to analyze the stability of a market sharing agreement between two firms. We find that the stability of the cartel depends on the relative market size of each firm. Collusion is not attractive for firms with a small home market, but the incentive for collusion increases when the firm’s home market is getting larger relative to the home market of the competitor. The highest stability of a cartel and additionally the highest social welfare is found when regions are symmetric. Further we can show that a monetary transfer can stabilize the market sharing agreement. T3 - Volkswirtschaftliche Diskussionsbeiträge - 105 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62146 ER - TY - THES A1 - Czymzik, Markus T1 - Mid- to Late Holocene flood reconstruction from two varved sediment profiles of pre-alpine Lake Ammersee (Southern Germany) T1 - Mittel- bis Spätholozäne Hochwasserrekonstruktion aus zwei warvierten Sedimentkernen des Ammersees N2 - Climate is the principal driving force of hydrological extremes like floods and attributing generating mechanisms is an essential prerequisite for understanding past, present, and future flood variability. Successively enhanced radiative forcing under global warming enhances atmospheric water-holding capacity and is expected to increase the likelihood of strong floods. In addition, natural climate variability affects the frequency and magnitude of these events on annual to millennial time-scales. Particularly in the mid-latitudes of the Northern Hemisphere, correlations between meteorological variables and hydrological indices suggest significant effects of changing climate boundary conditions on floods. To date, however, understanding of flood responses to changing climate boundary conditions is limited due to the scarcity of hydrological data in space and time. Exploring paleoclimate archives like annually laminated (varved) lake sediments allows to fill this gap in knowledge offering precise dated time-series of flood variability for millennia. During river floods, detrital catchment material is eroded and transported in suspension by fluid turbulence into downstream lakes. In the water body the transport capacity of the inflowing turbidity current successively diminishes leading to the deposition of detrital layers on the lake floor. Intercalated into annual laminations these detrital layers can be dated down to seasonal resolution. Microfacies analyses and X-ray fluorescence scanning (µ-XRF) at 200 µm resolution were conducted on the varved Mid- to Late Holocene interval of two sediment profiles from pre-alpine Lake Ammersee (southern Germany) located in a proximal (AS10prox) and distal (AS10dist) position towards the main tributary River Ammer. To shed light on sediment distribution within the lake, particular emphasis was (1) the detection of intercalated detrital layers and their micro-sedimentological features, and (2) intra-basin correlation of these deposits. Detrital layers were dated down to the season by microscopic varve counting and determination of the microstratigraphic position within a varve. The resulting chronology is verified by accelerator mass spectrometry (AMS) 14C dating of 14 terrestrial plant macrofossils. Since ~5500 varve years before present (vyr BP), in total 1573 detrital layers were detected in either one or both of the investigated sediment profiles. Based on their microfacies, geochemistry, and proximal-distal deposition pattern, detrital layers were interpreted as River Ammer flood deposits. Calibration of the flood layer record using instrumental daily River Ammer runoff data from AD 1926 to 1999 proves the flood layer succession to represent a significant time-series of major River Ammer floods in spring and summer, the flood season in the Ammersee region. Flood layer frequency trends are in agreement with decadal variations of the East Atlantic-Western Russia (EA-WR) atmospheric pattern back to 200 yr BP (end of the used atmospheric data) and solar activity back to 5500 vyr BP. Enhanced flood frequency corresponds to the negative EA-WR phase and reduced solar activity. These common links point to a central role of varying large-scale atmospheric circulation over Europe for flood frequency in the Ammersee region and suggest that these atmospheric variations, in turn, are likely modified by solar variability during the past 5500 years. Furthermore, the flood layer record indicates three shifts in mean layer thickness and frequency of different manifestation in both sediment profiles at ~5500, ~2800, and ~500 vyr BP. Combining information from both sediment profiles enabled to interpret these shifts in terms of stepwise increases in mean flood intensity. Likely triggers of these shifts are gradual reduction of Northern Hemisphere orbital summer forcing and long-term solar activity minima. Hypothesized atmospheric response to this forcing is hemispheric cooling that enhances equator-to-pole temperature gradients and potential energy in the troposphere. This energy is transferred into stronger westerly cyclones, more extreme precipitation, and intensified floods at Lake Ammersee. Interpretation of flood layer frequency and thickness data in combination with reanalysis models and time-series analysis allowed to reconstruct the flood history and to decipher flood triggering climate mechanisms in the Ammersee region throughout the past 5500 years. Flood frequency and intensity are not stationary, but influenced by multi-causal climate forcing of large-scale atmospheric modes on time-scales from years to millennia. These results challenge future projections that propose an increase in floods when Earth warms based only on the assumption of an enhanced hydrological cycle. N2 - Globale Klimamodelle prognostizieren eine Zunahme von Starkhochwassern infolge der Klimaerwärmung. Weiterhin werden natürliche Klimafaktoren die Intensität und Häufigkeit solcher Ereignisse auf Zeitskalen von Jahren bis Jahrtausenden beeinflussen. Für ein umfassendes Verständnis hochwassergenerierender Klimamechanismen müssen daher lange Zeiträume und regionale Muster in Betracht gezogen werden. Aufgrund der Limitierung der meisten instrumentellen Abflusszeitreihen auf die letzten 100 Jahre, bieten diese nur einen sehr begrenzten Einblick in das Spektrum möglicher Klima-Hochwasser Zusammenhänge. Die Nutzung natürlicher Hochwasserarchive, wie warvierter Seesedimente, erlaubt die Untersuchung von Hochwasseraktivität auf Zeitskalen von Jahrtausenden. Durch Hochwasser in einen See eingetragenes detritisches Material bildet, eingeschaltet in den jährlichen Sedimentationszyklus, eine charakteristische Abfolge von Hochwasserlagen auf dem Seeboden. Das Zählen jährlicher Laminierungen und die Position innerhalb eines jährlichen Sedimentationszyklus ermöglichen die Datierung von Hochwasserlagen mit saisonaler Genauigkeit. Der Ammersee bildet ein ideales Archiv zur Rekonstruktion von Hochwassern. Detritisches Material wird durch nur einen Hauptzufluss, die Ammer, in das rinnenförmige Becken transportiert. Die warvierten Sedimente erlauben eine zuverlässige Detektion und Datierung selbst mikroskopischer Hochwasserlagen. An zwei warvierten Sedimentprofilen des Ammersees sind hochauflösende Mikrofazies und Röntgenfluoreszenz (µ-XRF) Analysen durchgeführt worden. Zum besseren Verständnis der Sedimentverteilung im See lag der Fokus der Untersuchungen auf der Detektion detritischer Lagen anhand ihrer sedimentologischen und geochemischen Eigenschaften und der Korrelation dieser Lagen zwischen beiden Sedimentprofilen. Die Datierung der detritschen Lagen erfolgte durch Warvenzählung und wurde durch AMS Radiokarbondatierungen bestätigt. In den Sedimenten der letzten 5500 Jahre wurden 1573 detritische Lagen gefunden. Aufgrund ihrer Eigenschaften lassen sich diese Lagen als Ammerhochwasserlagen interpretieren: (1) Die Mikrofazies deutet auf eine Ablagerung nach Starkabflussereignissen hin. (2) Die geochemische Zusammensetzung beweist die terrestrische Herkunft des Materials. (3) Das proximal-distale Ablagerungsmuster deutet auf die Ammer als Eintragsquelle des Materials hin. Eine Kalibrierung mit instrumentellen Hochwasserdaten der Ammer im Zeitraum von AD 1926 bis 1999 bestätigt die Sukzession der detritischen Lagen als eine Zeitreihe starker Ammerhochwasser im Frühling und Sommer, der Hochwassersaison am Ammersee. Die Häufigkeit der Hochwasserlagen in den letzten 5500 Jahren weist eine deutliche dekadische Variabilität auf. Trends in der Häufigkeit von Hochwasserlagen korrelieren negativ mit dem Index der East Atlantic-Western Russia Oszillation (EA-WR) während der letzten 250 Jahre (Zeitraum der durch die genutzten atmosphärischen Daten abgedeckt ist) und der solaren Aktivität während des kompletten Zeitraums. Diese Übereinstimmungen deuten möglicherweise auf einen solaren Einfluss auf die atmosphärische Zirkulation über Europa und damit auf die Häufigkeit von Hochwassern am Ammersee hin. Weiterhin weist die Zeitreihe der Hochwasserlagen drei Veränderungen der durchschnittlichen Lagenhäufigkeit und -mächtigkeit vor etwa 5500, 2800 und 500 Jahren auf. Die Kombination der Daten beider Sedimentprofile ermöglicht es, diese Veränderungen als schrittweise Anstiege der Hochwasserintensität zu interpretieren. Vermutliche Auslöser sind graduelle Reduktion der solaren Insolation in der Nordhemisphäre und langfristige Minima der solaren Aktivität. Die wahrscheinliche atmosphärische Reaktion auf dieses Klimaforcing ist ein verstärkter Temperaturgradient zwischen den niederen und hohen Breiten, der zu einer Erhöhung der potenziellen Energie in der Atmosphäre und verstärkter Baroklinität führt. Diese Energie wird transferiert in eine Verstärkung der zyklonalen Westwindzirkulation, extremere Niederschläge und eine Intensivierung der Hochwasser am Ammersee. Die Interpretation der Häufigkeit und Mächtigkeit von Hochwasserlagen in den Sedimenten des Ammersees ermöglicht eine Rekonstruktion der Hochwassergeschichte und die Identifizierung hochwasserauslösender Klimafaktoren in der Ammerseeregion während der letzten 5500 Jahre. Hochwasserhäufigkeit und -intensität sind nicht stationär, sondern durch komplexe Veränderungen im Klimasystem auf Zeitskalen von Jahren bis Jahrtausenden geprägt. In diesem Zusammenhang erscheinen die Resultate globaler Klimamodelle, die einen Anstieg des Hochwasserrisikos allein auf Basis eines thermodynamisch intensivierten hydrologischen Kreislaufs infolge der Klimaerwärmung prognostizieren, als stark simplifiziert. KW - paleofloods KW - lake sediments KW - varves KW - climate dynamics Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65098 ER - TY - THES A1 - Sawade, Christoph T1 - Active evaluation of predictive models T1 - Aktive Evaluierung von Vorhersagemodellen N2 - The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert. This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution. We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains. Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs. N2 - Maschinelles Lernen befasst sich mit Algorithmen zur Inferenz von Vorhersagemodelle aus komplexen Daten. Vorhersagemodelle sind Funktionen, die einer Eingabe – wie zum Beispiel dem Text einer E-Mail – ein anwendungsspezifisches Zielattribut – wie „Spam“ oder „Nicht-Spam“ – zuweisen. Sie finden Anwendung beim Filtern von Spam-Nachrichten, bei der Text- und Gesichtserkennung oder auch bei der personalisierten Empfehlung von Produkten. Um ein Modell in der Praxis einzusetzen, ist es notwendig, die Vorhersagequalität bezüglich der zukünftigen Anwendung zu schätzen. Für diese Evaluierung werden Instanzen des Eingaberaums benötigt, für die das zugehörige Zielattribut bekannt ist. Instanzen, wie E-Mails, Bilder oder das protokollierte Nutzerverhalten von Kunden, stehen häufig in großem Umfang zur Verfügung. Die Bestimmung der zugehörigen Zielattribute ist jedoch ein manueller Prozess, der kosten- und zeitaufwendig sein kann und mitunter spezielles Fachwissen erfordert. Ziel dieser Arbeit ist die genaue Schätzung der Vorhersagequalität eines gegebenen Modells mit einer minimalen Anzahl von Testinstanzen. Wir untersuchen aktive Evaluierungsprozesse, die mit Hilfe einer Wahrscheinlichkeitsverteilung Instanzen auswählen, für die das Zielattribut bestimmt wird. Die Vorhersagequalität kann anhand verschiedener Kriterien, wie der Fehlerrate, des mittleren quadratischen Verlusts oder des F-measures, bemessen werden. Wir leiten die Wahrscheinlichkeitsverteilungen her, die den Schätzfehler bezüglich eines gegebenen Maßes minimieren. Der verbleibende Schätzfehler lässt sich anhand von Konfidenzintervallen quantifizieren, die sich aus der Verteilung des Schätzers ergeben. In vielen Anwendungen bestimmen individuelle Eigenschaften der Instanzen die Kosten, die für die Bestimmung des Zielattributs anfallen. So unterscheiden sich Dokumente beispielsweise in der Textlänge und dem technischen Anspruch. Diese Eigenschaften beeinflussen die Zeit, die benötigt wird, mögliche Zielattribute wie das Thema oder die Relevanz zuzuweisen. Wir leiten unter Beachtung dieser instanzspezifischen Unterschiede die optimale Verteilung her. Die entwickelten Evaluierungsmethoden werden auf verschiedenen Datensätzen untersucht. Wir analysieren in diesem Zusammenhang Bedingungen, unter denen die aktive Evaluierung genauere Schätzungen liefert als der Standardansatz, bei dem Instanzen zufällig aus der Testverteilung gezogen werden. Eine verwandte Problemstellung ist der Vergleich von zwei Modellen. Um festzustellen, welches Modell in der Praxis eine höhere Vorhersagequalität aufweist, wird eine Menge von Testinstanzen ausgewählt und das zugehörige Zielattribut bestimmt. Ein anschließender statistischer Test erlaubt Aussagen über die Signifikanz der beobachteten Unterschiede. Die Teststärke hängt von der Verteilung ab, nach der die Instanzen ausgewählt wurden. Wir bestimmen die Verteilung, die die Teststärke maximiert und damit die Wahrscheinlichkeit minimiert, sich für das schlechtere Modell zu entscheiden. Des Weiteren geben wir eine Möglichkeit an, den entwickelten Ansatz für den Vergleich von mehreren Modellen zu verwenden. Wir zeigen empirisch, dass die aktive Evaluierungsmethode im Vergleich zur zufälligen Auswahl von Testinstanzen in vielen Anwendungen eine höhere Teststärke aufweist. Im letzten Teil der Arbeit werden das Konzept der aktiven Evaluierung und das des aktiven Modellvergleichs auf Rankingprobleme angewendet. Wir leiten die optimalen Verteilungen für das Schätzen der Qualitätsmaße Discounted Cumulative Gain und Expected Reciprocal Rank her. Eine empirische Studie zur Evaluierung von Suchmaschinen zeigt, dass die neu entwickelten Verfahren signifikant genauere Schätzungen der Rankingqualität liefern als die untersuchten Referenzverfahren. KW - Aktive Evaluierung KW - Vorhersagemodelle KW - Maschinelles Lernen KW - Fehlerschätzung KW - Statistische Tests KW - Active Evaluation KW - Predictive Models KW - Machine Learning KW - Error Estimation KW - Statistical Tests Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65583 SN - 978-3-86956-255-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Swierczynski, Tina T1 - A 7000 yr runoff chronology from varved sediments of Lake Mondsee (Upper Austria) T1 - Eine 7000-jährige Abflusschronologie anhand von warvierten Sedimenten des Mondsees (Oberösterreich) N2 - The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced. N2 - Ein verstärktes Auftreten von Hochwassern, sowohl in ihrer Häufigkeit als auch in ihrer Frequenz, wird im Zuge der Klimaerwärmung und einer möglichen Intensivierung des hydrologischen Kreislaufs diskutiert. Die Kenntnis über die natürliche Variabilität von Hochwasserereignissen ist dabei eine grundlegende Voraussetzung, um die Hochwassergefahr für die Zukunft abschätzen zu können. Da instrumentelle Hochwasserzeitreihen meist nur die letzten 150 Jahre abbilden sind andere Methoden erforderlich, um das Auftreten von historischen und prä-historischen Hochwassern festzustellen. Jährlich laminierte (warvierte) Seesedimente sind bedeutende natürliche Archive, denn sie liefern kontinuierliche Zeitreihen > 10000 Jahre mit einer bis zur saisonalen Auflösung. Seebecken stellen natürliche Sedimentfallen dar, wobei eingetragenes Flusssediment in den Seesedimenten als eine distinkte detritische Lage aufgezeichnet wird, und daher zur Rekonstruktion von extremen Abflussereignissen genutzt werden. Im Rahmen meiner Doktorarbeit habe ich einen 8.50 m langen Sedimentkern aus dem Mondsee (Nordostalpen) untersucht, welcher die letzten 7000 Jahre abdeckt. Dieser Sedimentkern besteht aus Kalzitwarven und eingeschalteten detritischen Lagen mit einer Mächtigkeit von 0.05-32 mm. Detritische Lagen wurden mit Hilfe einer kombinierten Methode untersucht: Mikrofaziesanalyse, Rasterelektronenmikroskopie, Röntgenfluoreszenzanalyse (µXRF) und magnetische Suszeptibilität. Dieser Ansatz ermöglicht die Charakterisierung der einzelnen detritischen Lagen bezüglich der Eintragsprozesse und die Lokalisierung des Einzugsgebietes. Auf Grundlage der Warvenzählung und 14C Datierungen sind die wichtigsten Ziele dieser Arbeit: (i) die Identifizierung der Eintragsprozesse, welche zu einem Sedimenteintrag vom Einzugsgebiet bis in den See führen und (ii) die Rekonstruktion der Hochwasserfrequenz unter veränderten Klimabedingungen. Diese Arbeit zeigt eine Untersuchung auf verschiedenen Zeitscheiben, wobei instrumentelle und historische Daten genutzt werden, um die Aufzeichnung von pre-historischen Hochwasser in den Mondseesedimenten besser zu verstehen. Innerhalb der letzten 100 Jahre wurden zwölf Abflussereignisse aufgezeichnet. Zwei Typen von detritschen Lagen können anhand von Korngröße, geochemischer Zusammensetzung und des Verteilungsmusters unterschieden werden. Detritische Lagen, welche aus siliziklastischen und dolomitischen Material bestehen, zeigen eine Sedimentherkunft vom Teileinzugsgebiet des Flysch (nördliches Einzugsgebiet) und der Nördlichen Kalkalpen (südliches Teileinzugsgebiet) auf. Diese Lagen sind im Nördlichen Becken mächtiger (0.1-3.9 mm) als im südlichen Seebecken (0.05-1.6 mm). Detritische Lagen, welche nur aus dolomitischem Material bestehen und Turbititlagen aufzeigen (0.65-32 mm), weisen auf eine Herkunft aus den Nördlichen Kalkalpen hin. Im Vergleich mit instrumentellen Zeitreihen, stammen die mächtigeren Lagen von lokalen Murereignissen im Sommer und feinere Eintragslagen von regionalen Frühjahrs- und Sommerhochwassern. Extreme Sommerhochwasser am Mondsee werden hauptsächlich durch Zyklonen vom Mittelmeer ausgelöst, z.B. Juli 1954, Juli 1997 und August 2002. Die Untersuchung des langen Sedimentkerns vom Mondsee zeigt während der letzten 2000 Jahre signifikante Hochwasserintervalle mit dekadischen Hochwasserepisoden während der Völkerwanderungszeit und im Übergang vom Mittelalter in die Kleine Eiszeit. Dies weist auf eine Verknüpfung von Abkühlungsphasen und Sommerhochwassern im Nordostalpenraum hin. Während der Mittelalterlichen Wärmephase und in der Kleinen Eiszeit kam es jedoch zu einer geringeren Hochwasseraktivität. Dies zeigt einen komplexen Zusammenhang von Temperaturentwicklung und Hochwasseraktivität in den Nordostalpen, mit einer erhöhten Zyklonenaktivät in den Übergängen von wärmeren zu kälteren Phasen. Während der letzten 7000 Jahre wurden 47 Muren und 269 Hochwasser aufgezeichnet, wobei es eine signifikante Änderung mit erhöhter Häufigkeit um 3500 und 1500 Warvenjahre v. h. gab (v.h. = vor heute = AD 1950). Diese signifikante Änderung stimmt mit einem langfristigem Abkühlungstrend überein, welcher durch alpine Gletschervorstöße und das Absinken von Baumgrenzen seit etwa 3300 Warvenjahre v.h. berichtet wird. Trotz relativ geringer Hochwasseraktivität um 1500 Warvenjahre v.h., könnte das Auftreten von Hochwasser auch das Leben Menschen in Neolithischen Pfahlbausiedlungen (5750-4750 cal. yr BP) beeinflusst haben. Während die ersten Pfahlbauten noch als Feuchtbodensiedlungen am Land entstanden, wurden spätere Siedlungen eventuell als Anpassung an stark schwankenden Seewasserspiegeln auf Pfählen im Wasser gebaut und/oder zeigen eine allgemeine Veränderung der Siedlungsaktivitäten der Neolithischen Pfahlbaukultur an, aufgrund sozio-ökonomischer Veränderungen. Ein direkter Zusammenhang zwischen dem Verlassen der Pfahlbausiedlungen und einer erhöhten Hochwasseraktivität konnte jedoch nicht festgestellt werden. KW - Mondsee KW - Paläohochwasser KW - Seesedimente KW - Warven KW - Klimarekonstruktion KW - Mondsee KW - Paleofloods KW - Lake sediments KW - Warves KW - Climate reconstruction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66702 ER - TY - THES A1 - Di Gesù, Giacomo T1 - Semiclassical spectral analysis of discrete Witten Laplacians T1 - Semiklassische Spektraltheorie von diskreten Witten-Laplace-Operatoren N2 - A discrete analogue of the Witten Laplacian on the n-dimensional integer lattice is considered. After rescaling of the operator and the lattice size we analyze the tunnel effect between different wells, providing sharp asymptotics of the low-lying spectrum. Our proof, inspired by work of B. Helffer, M. Klein and F. Nier in continuous setting, is based on the construction of a discrete Witten complex and a semiclassical analysis of the corresponding discrete Witten Laplacian on 1-forms. The result can be reformulated in terms of metastable Markov processes on the lattice. N2 - In dieser Arbeit wird auf dem n-dimensionalen Gitter der ganzen Zahlen ein Analogon des Witten-Laplace-Operatoren eingeführt. Nach geeigneter Skalierung des Gitters und des Operatoren analysieren wir den Tunneleffekt zwischen verschiedenen Potentialtöpfen und erhalten vollständige Aymptotiken für das tiefliegende Spektrum. Der Beweis (nach Methoden, die von B. Helffer, M. Klein und F. Nier im Falle des kontinuierlichen Witten-Laplace-Operatoren entwickelt wurden) basiert auf der Konstruktion eines diskreten Witten-Komplexes und der Analyse des zugehörigen Witten-Laplace-Operatoren auf 1-Formen. Das Resultat kann im Kontext von metastabilen Markov Prozessen auf dem Gitter reformuliert werden und ermöglicht scharfe Aussagen über metastabile Austrittszeiten. KW - Semiklassische Spektralasymptotik KW - Metastabilität KW - diskreter Witten-Laplace-Operator KW - Eyring-Kramers Formel KW - Tunneleffekt KW - semiclassical spectral asymptotics KW - metastability KW - low-lying eignvalues KW - discrete Witten complex KW - rescaled lattice Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65286 ER - TY - THES A1 - Gassner, Alexandra Carina T1 - The character of the core-mantle boundary : a systematic study using PcP N2 - Assuming that liquid iron alloy from the outer core interacts with the solid silicate-rich lower mantle the influence on the core-mantle reflected phase PcP is studied. If the core-mantle boundary is not a sharp discontinuity, this becomes apparent in the waveform and amplitude of PcP. Iron-silicate mixing would lead to regions of partial melting with higher density which in turn reduces the velocity of seismic waves. On the basis of the calculation and interpretation of short-period synthetic seismograms, using the reflectivity and Gauss Beam method, a model space is evaluated for these ultra-low velocity zones (ULVZs). The aim of this thesis is to analyse the behaviour of PcP between 10° and 40° source distance for such models using different velocity and density configurations. Furthermore, the resolution limits of seismic data are discussed. The influence of the assumed layer thickness, dominant source frequency and ULVZ topography are analysed. The Gräfenberg and NORSAR arrays are then used to investigate PcP from deep earthquakes and nuclear explosions. The seismic resolution of an ULVZ is limited both for velocity and density contrasts and layer thicknesses. Even a very thin global core-mantle transition zone (CMTZ), rather than a discrete boundary and also with strong impedance contrasts, seems possible: If no precursor is observable but the PcP_model /PcP_smooth amplitude reduction amounts to more than 10%, a very thin ULVZ of 5 km with a first-order discontinuity may exist. Otherwise, if amplitude reductions of less than 10% are obtained, this could indicate either a moderate, thin ULVZ or a gradient mantle-side CMTZ. Synthetic computations reveal notable amplitude variations as function of the distance and the impedance contrasts. Thereby a primary density effect in the very steep-angle range and a pronounced velocity dependency in the wide-angle region can be predicted. In view of the modelled findings, there is evidence for a 10 to 13.5 km thick ULVZ 600 km south-eastern of Moscow with a NW-SE extension of about 450 km. Here a single specific assumption about the velocity and density anomaly is not possible. This is in agreement with the synthetic results in which several models create similar amplitude-waveform characteristics. For example, a ULVZ model with contrasts of -5% VP , -15% VS and +5% density explain the measured PcP amplitudes. Moreover, below SW Finland and NNW of the Caspian Sea a CMB topography can be assumed. The amplitude measurements indicate a wavelength of 200 km and a height of 1 km topography, previously also shown in the study by Kampfmann and Müller (1989). Better constraints might be provided by a joined analysis of seismological data, mineralogical experiments and geodynamic modelling. N2 - Unter der Annahme, dass flüssiges Eisen aus dem äußeren Erdkern mit dem festen, silikat-reichen Unteren Mantel reagiert, wird eine Einflussnahme auf die Kern-Mantel Reflexionsphase PcP erwartet. Ist die Kern-Mantel Grenze aufgeweicht, und nicht wie bislang angenommen ein diskreter Übergang, so zeichnet sich dies in der Wellenform und Amplitude von PcP ab. Die Interaktion mit Eisen führt zu teilweise aufgeschmolzenen Bereichen höherer Dichte, welche die seismischen Wellengeschwindigkeiten herabsetzen. Basierend auf den Berechnungen von kurzperiodischen synthetischen Seismogrammen, mittels der Reflektivitäts- und Gauss Beam Methode, soll ein möglicher Modellraum dieser Niedriggeschwindigkeitszonen ermittelt werden. Das Ziel dieser Arbeit ist es das Verhalten von PcP im Distanzbereich von 10° bis 40° unter dem Einfluss dieser Modelle mit diversen Geschwindigkeits- und Dichtekontrasten zu untersuchen. Ferner wird das Auflösungsvermögen hinsichtlich seismischer Daten diskutiert. Entscheidende Parameter wie Anomaliedicke, Quellfrequenz und Topographie werden hierbei analysiert. Tiefe Erdbeben und Kernexplosionen, die sich im entsprechenden Entfernungsbereich zum Gräfenberg und NORSAR Array befinden, werden anschließend im Hinblick auf PcP ausgewertet. Das seismische Auflösungsvermögen von Niedriggeschwindigkeitszonen ist stark begrenzt sowohl in Bezug auf Geschwindigkeits- und Dichtekontraste als auch hinsichtlich der Mächtigkeit. Es besteht sogar die Möglichkeit einer dünnen, globalen Kern-Mantel Übergangszone, selbst mit großen Impedanzkontrasten, ohne dass dies mit seismologischen Methoden detektiert werden könnte: Wird kein precursor zu PcP beobachtet aber das PcPmodel /PcPsmooth Amplitudenverhältnis zeigt gleichzeitig eine Reduktion von mehr als 10%, dann könnte eine sehr dünne Niedriggeschwindigkeitszone von ca. 5 km Mächtigkeit und einer Diskontinuität erster Ordnung vorliegen. Andererseits, ist PcP um weniger als 10% reduziert, könnte dies entweder auf eine dünne, moderate Niedriggeschwindigkeitszone oder einen graduellen Kern-Mantel Übergang hindeuten. Die synthetischen Berechnungen ergeben starke Amplitudenvariationen als Funktion der Distanz, welche auf den Impedanzkontrast zurückzuführen sind. Dabei ergibt sich ein primärer Dichteeffekt im extremen Steilwinkelbereich und ein maßgeblicher Geschwindigkeitseinfluss im Weitwinkelbereich. Im Hinblick auf die modellierten Resultate lässt sich eine 10 - 13.5 km mächtige Niedriggeschwindigkeitszone 600 km südöstlich von Moskau mit einer NW-SE Ausdehnung von mindestens 450 km folgern, wobei eine exakte Aussage über Geschwindigkeiten und Dichte nicht möglich ist. Dies ist im Konsens mit den synthetischen Berechnungen, wonach viele unterschiedliche Modelle ähnliche Amplituden- und Wellenformcharakteristiken erzeugen. Zum Beispiel erklärt ein Modell mit Kontrasten von -5% VP , -15% VS and +5% Dichte die gemessenen PcP Amplituden. Darüber hinaus können unterhalb des südwestlichen Finnlands und nord-nordwestlich des Kaspischen Meeres Undulationen an der Kern-Mantel Grenze selbst vermutet werden. Unter Berücksichtigung früherer Studien, z. B. von Kampfmann and Müller (1989), deuten die Messergebnisse auf eine laterale Topographie von 200 km und eine Höhe von 1 km hin. Eine Eingrenzung der potentiellen Anomaliemodelle kann nur durch eine gemeinsame Auswertung mit mineralogischen Experimenten und geodynamischen Modellierungen erfolgen. KW - Kern-Mantel Grenze KW - Seismologie KW - Ultra-Niedriggeschwindigkeitszonen KW - Steilwinkel-Analyse von PcP KW - Tiefbeben und Kernexplosionen KW - core-mantle boundary KW - seismology KW - ultra-low velocity zones KW - steep-angle analysis of PcP KW - deep earthquakes and nuclear explosions Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63590 ER - TY - THES A1 - Tarvenkorn, Alexander T1 - Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010 T1 - The way up from middle class : social upward mobility of households between 1984 and 2010 N2 - Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben. N2 - This dissertation is about the intra-generational upward mobility of households from middle to upper class. Research on intra-generational mobility often only analyses individual mobility in the context of labour market. This dissertation takes an additional look on the context of households. This is done on the opinion that the social position of individuals is not only determined by its labour market income. Also the context of the household is very important. The structure of household decides about how many individuals can contribute income to the household income and how many people participate from this income. In a couple-household it is also the place to decide about family planning, children and related to this about labour participation of each individual. The dissertation analyses these hypotheses with the data of the socio-economic panel (SOEP) of the years 1984 to 2010. The focus of this analysis is on labour market participation, the level of education, the structure of households and the job of the head of household. It is assumend that these are the main criterias which determine the household income and so the chance to upward mobility. An additional focus of the dissertation is on the historical context. It is assumed that the mentioned criterias change their influences on the upward mobility of households over time. KW - Soziale Ungleichheit KW - Sozialstruktur KW - Haushalt KW - Aufstiegsmobilität KW - Social Unequality KW - Social Structure KW - Household KW - Upward Mobility Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65331 ER - TY - THES A1 - Vocks, Christian T1 - Electron kinetic processes in the solar corona and wind T1 - Elektronenkinetische Prozesse in der Korona der Sonne und im Sonnenwind N2 - The Sun is surrounded by a 10^6 K hot atmosphere, the corona. The corona and the solar wind are fully ionized, and therefore in the plasma state. Magnetic fields play an important role in a plasma, since they bind electrically charged particles to their field lines. EUV spectroscopes, like the SUMER instrument on-board the SOHO spacecraft, reveal a preferred heating of coronal ions and strong temperature anisotropies. Velocity distributions of electrons can be measured directly in the solar wind, e.g. with the 3DPlasma instrument on-board the WIND satellite. They show a thermal core, an anisotropic suprathermal halo, and an anti-solar, magnetic-field-aligned, beam or "strahl". For an understanding of the physical processes in the corona, an adequate description of the plasma is needed. Magnetohydrodynamics (MHD) treats the plasma simply as an electrically conductive fluid. Multi-fluid models consider e.g. protons and electrons as separate fluids. They enable a description of many macroscopic plasma processes. However, fluid models are based on the assumption of a plasma near thermodynamic equilibrium. But the solar corona is far away from this. Furthermore, fluid models cannot describe processes like the interaction with electromagnetic waves on a microscopic scale. Kinetic models, which are based on particle velocity distributions, do not show these limitations, and are therefore well-suited for an explanation of the observations listed above. For the simplest kinetic models, the mirror force in the interplanetary magnetic field focuses solar wind electrons into an extremely narrow beam, which is contradicted by observations. Therefore, a scattering mechanism must exist that counteracts the mirror force. In this thesis, a kinetic model for electrons in the solar corona and wind is presented that provides electron scattering by resonant interaction with whistler waves. The kinetic model reproduces the observed components of solar wind electron distributions, i.e. core, halo, and a "strahl" with finite width. But the model is not only applicable on the quiet Sun. The propagation of energetic electrons from a solar flare is studied, and it is found that scattering in the direction of propagation and energy diffusion influence the arrival times of flare electrons at Earth approximately to the same degree. In the corona, the interaction of electrons with whistler waves does not only lead to scattering, but also to the formation of a suprathermal halo, as it is observed in interplanetary space. This effect is studied both for the solar wind as well as the closed volume of a coronal magnetic loop. The result is of fundamental importance for solar-stellar relations. The quiet solar corona always produces suprathermal electrons. This process is closely related to coronal heating, and can therefore be expected in any hot stellar corona. In the second part of this thesis it is detailed how to calculate growth or damping rates of plasma waves from electron velocity distributions. The emission and propagation of electron cyclotron waves in the quiet solar corona, and that of whistler waves during solar flares, is studied. The latter can be observed as so-called fiber bursts in dynamic radio spectra, and the results are in good agreement with observed bursts. N2 - Die Sonne ist von einer 10^6 K heißen Atmosphäre, der Korona, umgeben. Sie ist ebenso wie der Sonnenwind vollständig ionisiert, also ein Plasma. Magnetfelder spielen in einem Plasma eine wichtige Rolle, da sie elektrisch geladene Teilchen an ihre Feldlinien binden. EUV-Spektroskope, wie SUMER auf der Raumsonde SOHO, zeigen eine bevorzugte Heizung koronaler Ionen sowie starke Temperaturanisotropien. Geschwindigkeitsverteilung von Elektronen können im Sonnenwind direkt gemessen werden, z.B. mit dem 3DPlasma Instrument auf dem Satelliten WIND. Sie weisen einen thermischen Kern, einen isotropen suprathermischen Halo, sowie einen anti-solaren, magnetfeldparallelen Strahl auf. Zum Verständnis der physikalischen Prozesse in der Korona wird eine geeignete Beschreibung des Plasms benötigt. Die Magnetohydrodynamik (MHD) betrachtet das Plasma einfach als elektrisch leitfähige Flüssigkeit. Mehrflüssigkeitsmodelle behandeln z.B. Protonen und Elektronen als getrennte Fluide. Damit lassen sich viele makroskopische Vorgänge beschreiben. Fluidmodelle basieren aber auf der Annahme eines Plasmas nahe am thermodynamischen Gleichgewicht. Doch die Korona ist weit davon entfernt. Ferner ist es mit Fluidmodellen nicht möglich, Prozesse wie die Wechselwirkung mit elektromagnetischen Wellen mikroskopisch zu beschreiben. Kinetische Modelle, die Geschwindigkeitsverteilungen beschreiben, haben diese Einschränkungen nicht und sind deshalb geeignet, die oben genannten Messungen zu erklären. Bei den einfachsten Modellen bündelt die Spiegelkraft im interplanetaren Magnetfeld die Elektronen des Sonnenwinds in einen extrem engen Strahl, im Widerspruch zur Beobachtung. Daher muss es einen Streuprozess geben, der dem entgegenwirkt. In der vorliegenden Arbeit wird ein kinetisches Modell für Elektronen in der Korona und im Sonnenwind präsentiert, bei dem die Elektronen durch resonante Wechselwirkung mit Whistler-Wellen gestreut werden. Das kinetische Modell reproduziert die beobachteten Bestandteile von Elektronenverteilungen im Sonnenwind, d.h. Kern, Halo und einen Strahl endlicher Breite. Doch es ist nicht nur auf die ruhige Sonne anwendbar. Die Ausbreitung energetischer Elektronen eines solaren Flares wird untersucht und dabei festgestellt, dass Streuung in Ausbreitungsrichtung und Diffusion in Energie die Ankunftszeiten von Flare-Elektronen bei der Erde in etwa gleichem Maße beeinflussen. Die Wechselwirkung von Elektronen mit Whistlern führt in der Korona nicht nur zu Streuung, sondern auch zur Erzeugung eines suprathermischen Halos, wie er im interplanetaren Raum gemessen wird. Dieser Effekt wird sowohl im Sonnenwind als auch in einem geschlossenen koronalen Magnetfeldbogen untersucht. Das Ergebnis ist von fundamentaler Bedeutung für solar-stellare Beziehungen. Die ruhige Korona erzeugt stets suprathermische Elektronen. Dieser Prozeß ist eng mit der Koronaheizung verbunden, und daher in jeder heißen stellaren Korona zu erwarten. Im zweiten Teil der Arbeit wird beschrieben, wie sich aus der Geschwindigkeitsverteilung der Elektronen die Dämpfung oder Anregung von Plasmawellen berechnen lässt. Die Erzeugung und Ausbreitung von Elektronenzyklotronwellen in der ruhigen Korona und von Whistlern während solarer Flares wird untersucht. Letztere sind als sogenannte fiber bursts in dynamischen Radiospektren beobachtbar, und die Ergebnisse stimmen gut mit beobachteten Bursts überein. KW - Sonnenkorona KW - Plasmaphysik KW - kinetische Theorie KW - Elektronen-Geschwindigkeitsverteilungen KW - Whistler-Wellen KW - Solar corona KW - plasma physics KW - kinetic theory KW - electron velocity distributions KW - whistler waves Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65259 ER - TY - JOUR A1 - Kraft, Tobias T1 - Textual Differences in Alexander von Humboldt’s Essai politique sur l’île de Cuba BT - An editorial commentary on the first volume of the »Humboldt in English« (HiE) book series JF - Alexander von Humboldt im Netz ; international review for Humboldtian studies N2 - Die vorliegende Studie basiert auf einem Editionsbericht, der 2009 im Rahmen der Konferenz »Alexander von Humboldt and the Hemisphere« an der Vanderbilt University (Nashville, TN) vorgestellt wurde. Die für diese Publikation weiter entwickelte Untersuchung verdeutlicht die Textgenese von Humboldts Essai politique sur l’île de Cuba auf der Basis eines Textvergleichs zwischen allen drei "Originalquellen" des Texts. Der hier in seinen Ergebnissen vorgestellte Textvergleich ist Teil des Editionsprojektes »Humboldt in English« (HiE), bei dem sich ein US-deutsches Editorenteam seit 2007 zum Ziel gesetzt haben, kritische Neuübersetzungen von drei wichtigen Schriften aus Humboldts »Opus Americanum« anzufertigen (s.a. Fußnote). Der Textvergleich des Essai politique sur l’île de Cuba bildete die Textgrundlage für den ersten Band der HiE-Reihe, den 2011 bei Chicago University Press erschienenen The Political Essay on the Island of Cuba (hg. von Vera M. Kutzinski und Ottmar Ette). N2 - This study is based on an editorial report, which was presented at the 2009 working conference »Alexander von Humboldt and the Hemisphere« at Vanderbilt University (Nashville, TN). It demonstrates the textual genesis of Humboldt’s writings on Cuba through examples, which were obtained from a detailed text comparison of the three existing »original« versions of Humboldt’s Essai politique sur l’île de Cuba. The collation was part of a larger strategy to regain philological ground for the »Humboldt in English« (HiE) project. Since 2007 and funded with grants from the National Endowment for the Humanities, the Alexander von Humboldt-Foundation, and the Gerda Henkel Foundation, the US-German research team behind HiE has been working on new and unabridged translations and critical editions of three of Humboldt’s most significant texts from his American oeuvre.1 The following observations will outline the most important results of this collation effort as a complementary contribution to the recent release of the HiE project’s first volume, The Political Essay on the Island of Cuba (Chicago University Press 2011), edited by Vera M. Kutzinski and Ottmar Ette. N2 - El presente artículo se basa en un estudio, que fue presentado en 2009 en la conferencia »Alexander von Humboldt and the Hemisphere« en la Vanderbilt University (Nashville, TN). El estudio ejemplifica la génesis textual del Essai politique sur l’île de Cuba a base de una colación de las tres fuentes »originales« del mismo texto. El estudio forma parte del proyecto editorial »Humboldt in English« (HiE), en el cual un equipo de investigadores estadounidenses-alemanes se han propuesto publicar nuevas ediciones críticas con traducciones nuevas de tres obras claves de la obra americana de Humboldt desde 2007 (véase las informaciones en el pié de nota). La colación crea la base textual para el primer volumen de HiE, The Political Essay on the Island of Cuba (eds. Vera M. Kutzinski y Ottmar Ette), publicado en 2011. KW - Critical edition KW - Essai politique sur l'île de Cuba KW - Humboldt in English (HiE) KW - Ottmar Ette KW - Vanderbilt University KW - Vera Kutzinski Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61435 SN - 2568-3543 SN - 1617-5239 VL - XIII IS - 24 SP - 75 EP - 85 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - INPR A1 - Eckstein, Lars T1 - ‘We’re destroyed if we mix. And we’re destroyed if we don’t’ BT - indigeneity in the modern World system and the politics of Tricksterese in Pauline Melville’s The Ventriloquist’s Tale Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85529 ER - TY - THES A1 - Kamann, Stefanie T1 - Die Bedeutung von Entzündung und reaktiven Sauerstoffspezies in der Intimahyperplasie T1 - The role of inflammation and reactive oxygen species in intimal hyperplasia N2 - Die Restenose stellt ein zentrales Problem der interventionellen Kardiologie dar und ist häufigste Komplikation nach perkutanen Angioplastieverfahren. Hauptursache dieser Wiederverengung des Gefäßes ist die Bildung einer Neointima durch die Proliferation transdifferenzierter vaskulärer glatter Muskelzellen und die Sekretion extrazellulärer Matrix. Die Entstehung reaktiver Sauerstoffspezies (ROS) und die Entzündungsreaktion nach der Gefäßverletzung werden als frühe, die Neointimabildung induzierende Prozesse diskutiert. Im Rahmen dieser Arbeit wurden mehrere Projekte bearbeitet, die Aufschluss über die während der Neointimabildung statt findenden Prozesse geben sollen. Mit Hilfe eines Verletzungsmodells der murinen Femoralarterie wurde der Einfluss der Entzündung und der ROS-Bildung auf die Neointimabildung in der Maus untersucht. Die Behandlung mit dem mitochondrialen Superoxiddismutase-Mimetikum MitoTEMPO verminderte die Bildung der Neointima besser, als die Behandlung mit dem globalen ROS-Fänger N-Acetylcystein. Die stärkste Hemmung der Neointimabildung wurde jedoch durch die Immunsuppression mit Rapamycin erreicht. Interferon-γ (INFγ) ist ein wichtiges Zytokin der Th1-Immunantwort, das in Folge der Gefäßverletzung freigesetzt wird und die proinflammatorischen Chemokine CXCL9 (MIG, Monokine Induced by INF), CXCL10 (IP-10, INF inducible Protein of 10 kDa) und CXCL11 (I-TAC, Interferon inducible T cell-Chemoattractant) induziert. CXCL9, CXCL10 und CXCL11 sind Liganden des CXC-Chemokinrezeptors 3 (CXCR3) und locken chemotaktisch CXCR3 positive Entzündungszellen zum Ort der Gefäßverletzung. Daher wurde die spezielle Bedeutung des Chemokins CXCL10 in der Restenose untersucht. Dazu wurden CXCL10-defiziente Mäuse dem Femoralisverletzungsmodell unterzogen und die Gefäße nach 14 Tagen morphometrisch und immunhistologisch untersucht. CXCL10-Defizienz führte in Mäusen zu einer verminderten Neointimabildung, die mit einer verringerten Inflammation, Apoptose und Proliferation im verletzten Gefäß korrelierte. Neben der Inflammation beeinflusst aber auch die Reendothelialisierung der verletzten Gefäßwand die Restenose. Interessanterweise war im Vergleich zu Wildtyp-Mäusen in den CXCL10-Knockout-Mäusen auch die Reendothelialisierung erheblich verbessert. Offensichtlich ist das CXCR3-Chemokinsystem also in völlig unterschiedliche biologische Prozesse involviert und beeinflusst nicht nur die Bildung der Neoimtima durch die Förderung der Entzündung, sondern auch die Unterdrückung der Reendothelialisierung der verletzten Gefäßwand. Tatsächlich wird der CXCR3 nicht nur auf Entzündungszellen, sondern auch auf Endothelzellen exprimiert. Zur separaten Untersuchung der Rolle des CXCR3 in der Inflammation und der Reendothelialisierung wurde im Rahmen dieser Arbeit damit begonnen konditionelle CXCR3-Knockout-Mäuse zu generieren, in denen der CXCR3 entweder in Entzündungszellen oder in Endothelzellen ausgeschaltet ist. Zum besseren Verständnis der molekularen Mechanismen, mit denen der CXCR3 seine Funktionen vermittelt, wurde zudem untersucht ob dieser mit anderen G-Protein-gekoppelten Rezeptoren (GPCR) interagiert. Die Analyse von Coimmunpräzipitaten deutet auf eine Homodimerisierung der beiden CXCR3 Splicevarianten CXCR3A und CXCR3B, sowie auf die Heterodimerbildung von CXCR3A und CXCR3B mit sich, sowie jeweils mit CCR2, CCR3, CCR5 und den Opioidrezeptoren MOR und KOR hin. Die getestete Methode des Fluoreszenz-Resonanz-Energietransfers (FRET) erwies sich jedoch als ungeeignet zur Untersuchung von CXCR3, da dieser in HEK293T-Zellen nicht korrekt transient exprimiert wurde. Insgesamt deuten die Ergebnisse dieser Arbeit darauf hin, dass das CXCR3-Chemokinsystem eine zentrale Rolle in unterschiedlichen, die Neointimabildung beeinflussenden Prozessen spielt. Damit könnten der CXCR3 und insbesondere das Chemokin CXCL10 interessante Zielmoleküle in der Entwicklung neuer verbesserter Therapien zur Verhinderung der Restenose darstellen. N2 - Restenosis represents a central problem after coronary angioplasty procedures and is caused by intimal hyperplasia, also called neointima, as a result of transdifferentiation, proliferation of vascular smooth muscle cells and secretion of extracellular matrix. Formation of reactive oxygen species (ROS) and inflammation after vascular injury caused by angioplasty are discussed as early inducers of neointima formation. In several projects the processes causing the development of intimal hyperplasia were investigated. First of all, the impact of inflammation and ROS in neointima formation was investigated using the mouse femoral injury model. The mitochondrial superoxide dismutase mimetic mitoTEMPO could reduce neointima formation better than the global ROS scavenger N-acetylcystein. However, the strongest reduction of neointima formation was achieved by the treatment with the immunosuppressant rapamycin. Interferon-γ(INFγ) is a major cytokine of the Th1 immune response. It is released as a result of vessel injury and induces the proinflammatory chemokines CXCL9 (MIG, Monokine Induced by INF), CXCL10 (IP-10, INF inducible Protein of 10 kDa) and CXCL11 (I-TAC, Interferon inducible T-cell-Chemoattractant), which are ligands of the CXC chemokine receptor 3 (CXCR3) and by this chemotactically recruit CXCR3 positive cells to the site of vessel injury. In this work the special role of CXCL10 in restenosis was investigated. Therefore, CXCL10 decient mice underwent the mouse femoral injury model. The vessels were analysed morphometrically and immunohistologically 14 days after injury. CXCL10 deciency lead to decreased neointima formation that correlated with a reduced recruitment of inflammatory cells as well as diminished numbers of apoptotic and proliferating cells at the site of vessel injury. In addition to inflammation the reconstitution of the endothelium has also impact on the development of restenosis. Interestingly reendothelialisation was strongly improved in CXCL10 decient mice compared to wildtype mice. Obviously the CXCR3 chemokine system is involved in different biological prosesses and impairs neointima formation on one hand by the advancement of inflammation and on the other hand by the suppression of reendothelialisation. In fact the CXCR3 is not only expressed on inflammatory cells but also on endothelial cells. To investigate the role of CXCR3 in inflammation and reendothelialisation separatly the generation of conditional CXCR3 knockout mice with a CXCR3 knockout in T-cells or endothelial cells was started in an additional project. For a better understanding of the molecular mechanisms on which the CXCR3 mediates its biological functions the protein-protein interactions of the CXCR3 with other G-protein coupled recteptors (GPCR) was analysed. Coimmunoprecipitation showed homodimerization of the CXCR3 splice variants CXCR3A and CXCR3B, as well as heterodimerization of CXCR3A and CXCR3B with each other and with the chemokine receptors CXCR4, CCR2, CCR3, CCR5 and the opioid receptors MOR and KOR. The additional tested Fluorecence resonance energy transfer (FRET) method proved to be not suitable to measure interactions of CXCR3, since this receptor could not be expressed correctly on the cell surface after transient transfection. To summarise, the results indicate that the CXCR3 chemokine system plays a central role in different processes that mediate neointima formation. Thus, the CXCR3 and especially the chemokine CXCL10 could be interesting therapeutic targets in the development of new or improved treatments to reduce the risk of restenosis. KW - Intimahyperplasie KW - Neointima KW - Reaktive Sauerstoffspezies KW - Entzündung KW - CXCL10 KW - Intimal Hyperplasia KW - Neointima KW - Reactive Oxygen Species KW - Inflammation KW - CXCL10 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64683 ER - TY - GEN A1 - Ebert, Birgitta E. A1 - Lamprecht, Anna-Lena A1 - Steffen, Bernhard A1 - Blank, Lars M. T1 - Flux-P BT - automating metabolic flux analysis T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Quantitative knowledge of intracellular fluxes in metabolic networks is invaluable for inferring metabolic system behavior and the design principles of biological systems. However, intracellular reaction rates can not often be calculated directly but have to be estimated; for instance, via 13C-based metabolic flux analysis, a model-based interpretation of stable carbon isotope patterns in intermediates of metabolism. Existing software such as FiatFlux, OpenFLUX or 13CFLUX supports experts in this complex analysis, but requires several steps that have to be carried out manually, hence restricting the use of this software for data interpretation to a rather small number of experiments. In this paper, we present Flux-P as an approach to automate and standardize 13C-based metabolic flux analysis, using the Bio-jETI workflow framework. Exemplarily based on the FiatFlux software, it demonstrates how services can be created that carry out the different analysis steps autonomously and how these can subsequently be assembled into software workflows that perform automated, high-throughput intracellular flux analysis of high quality and reproducibility. Besides significant acceleration and standardization of the data analysis, the agile workflow-based realization supports flexible changes of the analysis workflows on the user level, making it easy to perform custom analyses. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1054 KW - 13C metabolic flux analysis KW - MFA KW - high-throughput analysis KW - scientific workflows KW - workflow management KW - Bio-jETI Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476696 SN - 1866-8372 IS - 1054 SP - 872 EP - 890 ER - TY - THES A1 - Fleischer, Julia T1 - Policy advice and institutional politics : a comparative analysis of Germany and Britain T1 - Politikberatung und Institutionenpolitik : eine vergleichende Analyse für Deutschland und Großbritannien N2 - Die Studie schließt an die Debatte in der vergleichenden politikwissenschaftlichen Verwaltungsforschung an, die sich mit der Rolle interner Beratungsakteure in Regierungsorganisationen beschäftigt. Ziel dieser Studie ist es, die Mechanismen zu erklären, durch die interne Beratungsakteure die ihnen zugeschriebene Bedeutung im exekutiven Entscheidungsprozess erlangen. Dabei werden jene Organisationseinheiten untersucht, die proaktiv an exekutiven Entscheidungsprozessen mitwirken und mit ihrer Beratung politischer Akteure in Konkurrenz zur Ministerialverwaltung stehen können. Die Einflussmechanismen dieser Akteure in der exekutiven Entscheidungsfindung werden als Formen einer "Institutionenpolitik" aufgefasst, bei der Akteure die institutionellen Bedingungen von Politikformulierungsprozessen bzw. die "Spielregeln exekutiver Entscheidungsfindung" verändern, um ihre eigene Position bzw. die ihres "Klienten" zu stärken. Das theoretische Argument dieser Arbeit folgt der neo-institutionalistischen Wende in der Organisationstheorie und definiert Institutionenpolitik als graduelle Institutionalisierungsprozesse zwischen Institutionen und organisationalen Akteuren, wobei einem weiten Institutionenbegriff folgend die Objekte solcher Veränderungsprozesse durch regulative, normative und kognitive Säulen gekennzeichnet sind. In Anwendung des "power-distributional approach" lassen sich graduelle Institutionalisierungsprozesse durch institutionenbezogene Charakteristika erklären, d.h. die Beschaffenheit der Objekte von Institutionenpolitik, insbesondere die Interpretationsfreiheit ihrer Anwendung, sowie die Restriktionen des institutionellen Kontexts. Zudem lässt sich Institutionenpolitik durch akteursbezogene Charakteristika erklären, d.h. den Ambitionen der Akteure sich als "potentielle institutionelle Agenten" zu engagieren. Diese beiden Erklärungsdimensionen drücken sich in vier idealtypischen Mechanismen von Institutionenpolitik aus: Sedimentation, Ersetzung, Drift, und Konversion, die mit vier Agententypen korrespondieren. Die Studie untersucht die institutionenpolitischen Ambitionen der Akteure explorativ, die Relevanz des institutionellen Kontexts wird mithilfe von Erwartungshypothesen zu den Effekten von vier Merkmalen analysiert, die in der bestehenden Debatte als relevant gelten: (1) die Parteienzusammensetzung der Regierung, (2) die Strukturprinzipien von Kabinettsentscheidungen, (3) die Verwaltungstradition sowie (4) die formale Politisierung der Ministerialverwaltung. Die Studie folgt einem "most similar systems design" und führt qualitative Fallstudien zur Rolle interner Beratungseinheiten im Zentrum deutscher und britischer Regierungsorganisationen, d.h. der Regierungszentrale und dem Finanzministerium, über einen längeren Zeitraum durch (1969/1970-2005). Es werden jeweils drei Zeitperioden pro Untersuchungsland betrachtet, die britischen Fallstudien analysieren die Beratungsakteure im Cabinet Office, Prime Minister's Office und dem Finanzministerium unter den Premierministern Heath (1970-74), Thatcher (1979-87) und Blair (1997-2005). Die deutschen Fallstudien untersuchen die Beratungsakteure im Bundeskanzleramt und dem Bundesfinanzministerium unter den Bundeskanzlern Brandt (1969-74), Kohl (1982-1987) und Schröder (1998-2005). Für die empirische Untersuchung wurden die Ergebnisse einer Dokumentenanalyse mit den Erkenntnissen aus 75 semi-strukturierten Experteninterviews trianguliert. Die vergleichende Analyse zeigt unterschiedliche Muster von Institutionenpolitik. Die deutschen Beratungsakteure agieren anfänglich in Ersetzung, später vornehmlich in Sedimentation sowie Drift, d.h. ihre institutionenpolitischen Aktivitäten widmen sich nach anfänglicher Ersetzung bestehender institutioneller Grundlagen zunehmend der Addition neuer Elemente sowie der deliberativen Nicht-Entscheidung zur Anpassung existierender institutioneller Grundlagen an Umweltveränderungen. Die britischen Beratungsakteure sind zumeist in Ersetzung sowie Konversion engagiert, trotz gelegentlicher Sedimentation, d.h. einer direkten Ersetzung bestehender institutioneller Grundlagen durch neue Spielregeln exekutiver Entscheidungsfindung sowie einer bewussten Umwandlung und Neuausrichtung existierender institutionellen Grundlagen, gelegentlich auch eine Addition neuer Elemente zu bestehenden Regeln. Die institutionen- und akteursspezifischen Charakteristika sind für diese Muster von Institutionenpolitik erklärungsrelevant. Erstens weist die Studie nach, dass der institutionelle Kontext die institutionenpolitischen Aktivitäten in Deutschland beschränkt und in Großbritannien begünstigt. Zweitens ist die Interpretationsfreiheit der Anwendung institutionenpolitischer Objekte bedeutsam, wie sich anhand der institutionenpolitischen Ambitionen der Akteure im Zeitverlauf und im Ländervergleich zeigt und somit drittens bestätigt, dass diese Interessen der Akteure an Institutionenwandel die Mechanismen von Institutionenpolitik beeinflussen. Die Arbeit schließt mit der Erkenntnis, dass die Rolle interner Beratungseinheiten in der exekutiven Politikformulierung nicht nur aus ihren inhaltlichen, parteistrategischen oder medial-beratenden Funktionen für politische Akteure in Regierungsämtern folgt, sondern insbesondere aus ihren institutionenpolitischen Aktivitäten, deren Resultate die institutionellen Restriktionen aller Akteure in exekutiven Entscheidungsprozessen beeinflussen – und somit auch ihre eigene Rolle in diesen Prozessen. N2 - This study follows the debate in comparative public administration research on the role of advisory arrangements in central governments. The aim of this study is to explain the mechanisms by which these actors gain their alleged role in government decision-making. Hence, it analyses advisory arrangements that are proactively involved in executive decision-making and may compete with the permanent bureaucracy by offering policy advice to political executives. The study argues that these advisory arrangements influence government policy-making by "institutional politics", i.e. by shaping the institutional underpinnings to govern or rather the "rules of the executive game" in order to strengthen their own position or that of their clients. The theoretical argument of this study follows the neo-institutionalist turn in organization theory and defines institutional politics as gradual institutionalization processes between institutions and organizational actors. It applies a broader definition of institutions as sets of regulative, normative and cognitive pillars. Following the "power-distributional approach" such gradual institutionalization processes are influenced by structure-oriented characteristics, i.e. the nature of the objects of institutional politics, in particular the freedom of interpretation in their application, as well as the distinct constraints of the institutional context. In addition, institutional politics are influenced by agency-oriented characteristics, i.e. the ambitions of actors to act as "would-be change agents". These two explanatory dimensions result in four ideal-typical mechanisms of institutional politics: layering, displacement, drift, and conversion, which correspond to four ideal-types of would-be change agents. The study examines the ambitions of advisory arrangements in institutional politics in an exploratory manner, the relevance of the institutional context is analyzed via expectation hypotheses on the effects of four institutional context features that are regarded as relevant in the scholarly debate: (1) the party composition of governments, (2) the structuring principles in cabinet, (3) the administrative tradition, and (4) the formal politicization of the ministerial bureaucracy. The study follows a "most similar systems design" and conducts qualitative case studies on the role of advisory arrangements at the center of German and British governments, i.e. the Prime Minister’s Office and the Ministry of Finance, for a longer period (1969/1970-2005). Three time periods are scrutinized per country; the British case studies examine the role of advisory arrangements at the Cabinet Office, the Prime Minister's Office, and the Ministry of Finance under Prime Ministers Heath (1970-74), Thatcher (1979-87) and Blair (1997-2005). The German case studies study the role of advisory arrangements at the Federal Chancellery and the Federal Ministry of Finance during the Brandt government (1969-74), the Kohl government (1982-1987) and the Schröder government (1998-2005). For the empirical analysis, the results of a document analysis and the findings of 75 semi-structured expert interviews have been triangulated. The comparative analysis reveals different patterns of institutional politics. The German advisory arrangements engaged initially in displacement but turned soon towards layering and drift, i.e. after an initial displacement of the pre-existing institutional underpinnings to govern they laid increasingly new elements onto existing ones and took the non-deliberative decision to neglect the adaption of existing rules of the executive game towards changing environmental demands. The British advisory arrangements were mostly involved in displacement and conversion, despite occasional layering, i.e. they displaced the pre-existing institutional underpinnings to govern with new rules of the executive game and transformed and realigned them, sometimes also layering new elements onto pre-existing ones. The structure- and agency-oriented characteristics explain these patterns of institutional politics. First, the study shows that the institutional context limits the institutional politics in Germany and facilitates the institutional politics in the UK. Second, the freedom of interpreting the application of institutional targets is relevant and could be observed via the different ambitions of advisory arrangements across countries and over time, confirming, third, that the interests of such would-be change agents are likewise important to understand the patterns of institutional politics. The study concludes that the role of advisory arrangements in government policy-making rests not only upon their policy-related, party-political or media-advisory role for political executives, but especially upon their activities in institutional politics, resulting in distinct institutional constraints on all actors in government policy-making – including their own role in these processes. KW - Politikberatung KW - Ministerialverwaltung KW - Regierungszentrale KW - Organisationstheorie KW - Fallstudie KW - Policy advice KW - Ministerial bureaucracy KW - Prime Minister's Office KW - Organization theory KW - Case study Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61873 ER - TY - GEN A1 - Jing, Runchun A1 - Ambrose, Michael A. A1 - Knox, Maggie R. A1 - Smykal, Petr A1 - Hybl, Miroslav A1 - Ramos, Á. A1 - Caminero, Constantino A1 - Burstin, Judith A1 - Duc, Gerard A1 - van Soest, L. J. M. A1 - Święcicki, W. K. A1 - Pereira, M. Graca A1 - Vishnyakova, Margarita A1 - Davenport, Guy F. A1 - Flavell, Andrew J. A1 - Ellis, T. H. Noel T1 - Genetic diversity in European Pisum germplasm collections T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - The distinctness of, and overlap between, pea genotypes held in several Pisum germplasm collections has been used to determine their relatedness and to test previous ideas about the genetic diversity of Pisum. Our characterisation of genetic diversity among 4,538 Pisum accessions held in 7 European Genebanks has identified sources of novel genetic variation, and both reinforces and refines previous interpretations of the overall structure of genetic diversity in Pisum. Molecular marker analysis was based upon the presence/absence of polymorphism of retrotransposon insertions scored by a high-throughput microarray and SSAP approaches. We conclude that the diversity of Pisum constitutes a broad continuum, with graded differentiation into sub-populations which display various degrees of distinctness. The most distinct genetic groups correspond to the named taxa while the cultivars and landraces of Pisum sativum can be divided into two broad types, one of which is strongly enriched for modern cultivars. The addition of germplasm sets from six European Genebanks, chosen to represent high diversity, to a single collection previously studied with these markers resulted in modest additions to the overall diversity observed, suggesting that the great majority of the total genetic diversity collected for the Pisum genus has now been described. Two interesting sources of novel genetic variation have been identified. Finally, we have proposed reference sets of core accessions with a range of sample sizes to represent Pisum diversity for the future study and exploitation by researchers and breeders. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 871 KW - germplasm collection KW - insertion polymorphism KW - retrotransposon insertion KW - broad continuum KW - SSAP marker Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434743 SN - 1866-8372 IS - 871 SP - 367 EP - 380 ER - TY - GEN A1 - Cheng, Lisa Lai-Shen A1 - Vicente, Luis T1 - Verb doubling in Mandarin Chinese T2 - Postprints der Universität Potsdam : Humanwissenschaftliche Reihe N2 - This article examines two so-far-understudied verb doubling constructions in Mandarin Chinese, viz., verb doubling clefts and verb doubling lian…dou. We show that these constructions have the same internal syntax as regular clefts and lian…dou sentences, the doubling effect being epiphenomenal; therefore, we classify them as subtypes of the general cleft and lian…dou constructions, respectively, rather than as independent constructions. Additionally, we also show that, as in many other languages with comparable constructions, the two instances of the verb are part of a single movement chain, which has the peculiarity of allowing Spell-Out of more than one link. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 629 KW - Mandarin Chinese KW - verb doubling KW - verb movement KW - cleft KW - lian…dou Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436880 SN - 1866-8364 IS - 629 SP - 1 EP - 37 ER - TY - BOOK A1 - Golovnenkov, Pavel A1 - Spitca, Natalia A1 - Hellmann, Uwe T1 - Уголовно-процессуальный кодекс Федеративной Республики Германия - Strafprozessordnung (StPO) - : Научно-практический комментарий и перевод текста закона ; со вступительной статьей профессора Уве Хелльманна «Введение в уголовно-процессуальное право ФРГ» T3 - Schriften zum deutschen und russischen Strafrecht N2 - Уголовно-процессуальный кодекс ФРГ (УПК ФРГ) является основным законодательным актом, регулирующим немецкий уголовный процесс. В данное издание входят трансформация УПК ФРГ на русский язык и юридические комментарии, призванные облегчить читателю правильное языковое понимание и правовое толкование текста немецкого уголовно-процессуального закона. Трансформация текста закона основана на принципах функционального перевода, подразумевающего точную передачу смысла закона, в соответствии с научным толкованием юридических терминов и правовых институтов, объяснённым в комментариях. Помимо толкования понятий, в комментариях кратко представлены актуальные дискуссии в доктрине и судебной практике в отношении отдельных норм, а также последние изменения и дополнения, внесённые в закон, и краткая информация о содержании других законодательных актов, связанных с положениями УПК ФРГ. Вступительная статья содержит обзор уголовного процесса ФРГ и представляет собой введение в немецкое уголовно-процессуальное право. Книга адресована не только юристам-практикам и правоведам, но и всем тем, кто в силу профессиональной деятельности или в процессе обучения интересуется уголовным процессом ФРГ. Текст закона представлен в редакции от 21 июля 2012 года. T2 - Ugolovno-processual´nyj kodeks Federativnoj Respubliki Germaniâ - Strafprozessordnung (StPO) - Naučno-praktičeskij kommentarij i perevod teksta zakona T3 - Schriften zum deutschen und russischen Strafrecht = Научные труды в области немецкого и российского уголовного права - 2 KW - russische Übersetzung StPO KW - Strafprozessordnung KW - Strafprozessrecht KW - StPO KW - Strafverfahren KW - УПК ФРГ на русском языке KW - немецкий уголовный процесс KW - уголовно-процессуальное право Германии KW - Уголовно-процессуальный кодекс ФРГ KW - перевод УПК Германии на русский язык Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61776 SN - 978-3-86956-208-7 SN - 2191-088X SN - 2191-0898 IS - 2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Hische, Manuela A1 - Larhlimi, Abdelhalim A1 - Schwarz, Franziska A1 - Fischer-Rosinský, Antje A1 - Bobbert, Thomas A1 - Assmann, Anke A1 - Catchpole, Gareth S. A1 - Pfeiffer, Andreas F. H. A1 - Willmitzer, Lothar A1 - Selbig, Joachim A1 - Spranger, Joachim T1 - A distinct metabolic signature predictsdevelopment of fasting plasma glucose T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - Background High blood glucose and diabetes are amongst the conditions causing the greatest losses in years of healthy life worldwide. Therefore, numerous studies aim to identify reliable risk markers for development of impaired glucose metabolism and type 2 diabetes. However, the molecular basis of impaired glucose metabolism is so far insufficiently understood. The development of so called 'omics' approaches in the recent years promises to identify molecular markers and to further understand the molecular basis of impaired glucose metabolism and type 2 diabetes. Although univariate statistical approaches are often applied, we demonstrate here that the application of multivariate statistical approaches is highly recommended to fully capture the complexity of data gained using high-throughput methods. Methods We took blood plasma samples from 172 subjects who participated in the prospective Metabolic Syndrome Berlin Potsdam follow-up study (MESY-BEPO Follow-up). We analysed these samples using Gas Chromatography coupled with Mass Spectrometry (GC-MS), and measured 286 metabolites. Furthermore, fasting glucose levels were measured using standard methods at baseline, and after an average of six years. We did correlation analysis and built linear regression models as well as Random Forest regression models to identify metabolites that predict the development of fasting glucose in our cohort. Results We found a metabolic pattern consisting of nine metabolites that predicted fasting glucose development with an accuracy of 0.47 in tenfold cross-validation using Random Forest regression. We also showed that adding established risk markers did not improve the model accuracy. However, external validation is eventually desirable. Although not all metabolites belonging to the final pattern are identified yet, the pattern directs attention to amino acid metabolism, energy metabolism and redox homeostasis. Conclusions We demonstrate that metabolites identified using a high-throughput method (GC-MS) perform well in predicting the development of fasting plasma glucose over several years. Notably, not single, but a complex pattern of metabolites propels the prediction and therefore reflects the complexity of the underlying molecular mechanisms. This result could only be captured by application of multivariate statistical approaches. Therefore, we highly recommend the usage of statistical methods that seize the complexity of the information given by high-throughput methods. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 850 KW - prediction KW - fasting glucose KW - type 2 diabetes KW - metabolomics KW - plasma KW - random forest KW - metabolite KW - regression KW - biomarker Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427400 SN - 1866-8372 IS - 850 ER - TY - JOUR A1 - Schröder, Miriam ED - Kleinwächter, Kai T1 - China und Indien BT - Die neuen Spieler am Tisch JF - Klimapolitik International N2 - Der Artikel analysiert die neue Rolle aufsteigender Schwellenländer in den internationalen Klimaverhandlungen am Beispiel Chinas und Indiens. Die Ablehnung verbindlicher Reduktionsziele für Treibhausgase wurde in Kopenhagen als Blockadepolitik beider Länder gewertet. China und Indien können sich in ihrer Position behaupten, da ihr gestiegenes Gewicht in der multipolaren Weltordnung und die Untätigkeit führender Industrieländer ihre Verhandlungsposition stärkt. Die Autorin diskutiert Kooperationsmöglichkeiten auf subnationaler Ebene, die die Blockadeposition nationaler Regierungen umgehen können. KW - Klimapolitik KW - Klima KW - Durban 2011 KW - Klimakonferenz KW - NGO KW - Entwicklungspolitik KW - climate policy KW - climate KW - Climate Change Conference KW - development policy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81311 SN - 1868-6222 SN - 1868-6230 SP - 41 EP - 49 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Saki, Adel A1 - Moazzen, Mohssen A1 - Oberhänsli, Roland T1 - Mineral chemistry and thermobarometry of the staurolite-chloritoid schists from Poshtuk, NW Iran T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - The Poshtuk metapelitic rocks in northwestern Iran underwent two main phases of regional and contact metamorphism. Microstructures, textural features and field relations indicate that these rocks underwent a polymetamorphic history. The dominant metamorphic assemblage of the metapelites is garnet, staurolite, chloritoid, chlorite, muscovite and quartz, which grew mainly syntectonically during the later contact metamorphic event. Peak metamorphic conditions of this event took place at 580 ◦ C and ∼ 3–4 kbar, indicating that this event occurred under high-temperature and low-pressure conditions (HT/LP metamorphism), which reflects the high heat flow in this part of the crust. This event is mainly controlled by advective heat input through magmatic intrusions into all levels of the crust. These extensive Eocene metamorphic and magmatic activities can be associated with the early Alpine Orogeny, which resulted in this area from the convergence between the Arabian and Eurasian plates, and the Cenozoic closure of the Tethys oceanic tract(s). T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 578 KW - thermobarometry KW - HT/LP metamorphism KW - Poshtuk metapelites KW - northwestern Iran Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413942 SN - 1866-8372 IS - 578 SP - 1077 EP - 1088 ER - TY - THES A1 - Rivera Hernández, Sergio T1 - Tensorial spacetime geometries carrying predictive, interpretable and quantizable matter dynamics T1 - Tensorielle Raumzeit-Geometrien, welche prädiktive, interpretierbare und quantisierbare Materiefeld-Dynamiken tragen können N2 - Which tensor fields G on a smooth manifold M can serve as a spacetime structure? In the first part of this thesis, it is found that only a severely restricted class of tensor fields can provide classical spacetime geometries, namely those that can carry predictive, interpretable and quantizable matter dynamics. The obvious dependence of this characterization of admissible tensorial spacetime geometries on specific matter is not a weakness, but rather presents an insight: it was Maxwell theory that justified Einstein to promote Lorentzian manifolds to the status of a spacetime geometry. Any matter that does not mimick the structure of Maxwell theory, will force us to choose another geometry on which the matter dynamics of interest are predictive, interpretable and quantizable. These three physical conditions on matter impose three corresponding algebraic conditions on the totally symmetric contravariant coefficient tensor field P that determines the principal symbol of the matter field equations in terms of the geometric tensor G: the tensor field P must be hyperbolic, time-orientable and energy-distinguishing. Remarkably, these physically necessary conditions on the geometry are mathematically already sufficient to realize all kinematical constructions familiar from Lorentzian geometry, for precisely the same structural reasons. This we were able to show employing a subtle interplay of convex analysis, the theory of partial differential equations and real algebraic geometry. In the second part of this thesis, we then explore general properties of any hyperbolic, time-orientable and energy-distinguishing tensorial geometry. Physically most important are the construction of freely falling non-rotating laboratories, the appearance of admissible modified dispersion relations to particular observers, and the identification of a mechanism that explains why massive particles that are faster than some massless particles can radiate off energy until they are slower than all massless particles in any hyperbolic, time-orientable and energy-distinguishing geometry. In the third part of the thesis, we explore how tensorial spacetime geometries fare when one wants to quantize particles and fields on them. This study is motivated, in part, in order to provide the tools to calculate the rate at which superluminal particles radiate off energy to become infraluminal, as explained above. Remarkably, it is again the three geometric conditions of hyperbolicity, time-orientability and energy-distinguishability that allow the quantization of general linear electrodynamics on an area metric spacetime and the quantization of massive point particles obeying any admissible dispersion relation. We explore the issue of field equations of all possible derivative order in rather systematic fashion, and prove a practically most useful theorem that determines Dirac algebras allowing the reduction of derivative orders. The final part of the thesis presents the sketch of a truly remarkable result that was obtained building on the work of the present thesis. Particularly based on the subtle duality maps between momenta and velocities in general tensorial spacetimes, it could be shown that gravitational dynamics for hyperbolic, time-orientable and energy distinguishable geometries need not be postulated, but the formidable physical problem of their construction can be reduced to a mere mathematical task: the solution of a system of homogeneous linear partial differential equations. This far-reaching physical result on modified gravity theories is a direct, but difficult to derive, outcome of the findings in the present thesis. Throughout the thesis, the abstract theory is illustrated through instructive examples. N2 - Welche Tensorfelder G auf einer glatten Mannigfaltigkeit M können eine Raumzeit-Geometrie beschreiben? Im ersten Teil dieser Dissertation wird es gezeigt, dass nur stark eingeschränkte Klassen von Tensorfeldern eine Raumzeit-Geometrie darstellen können, nämlich Tensorfelder, die eine prädiktive, interpretierbare und quantisierbare Dynamik für Materiefelder ermöglichen. Die offensichtliche Abhängigkeit dieser Charakterisierung erlaubter tensorieller Raumzeiten von einer spezifischen Materiefelder-Dynamik ist keine Schwäche der Theorie, sondern ist letztlich genau das Prinzip, das die üblicherweise betrachteten Lorentzschen Mannigfaltigkeiten auszeichnet: diese stellen die metrische Geometrie dar, welche die Maxwellsche Elektrodynamik prädiktiv, interpretierbar und quantisierbar macht. Materiefeld-Dynamiken, welche die kausale Struktur von Maxwell-Elektrodynamik nicht respektieren, zwingen uns, eine andere Geometrie auszuwählen, auf der die Materiefelder-Dynamik aber immer noch prädiktiv, interpretierbar und quantisierbar sein muss. Diesen drei Voraussetzungen an die Materie entsprechen drei algebraische Voraussetzungen an das total symmetrische kontravariante Tensorfeld P, welches das Prinzipalpolynom der Materiefeldgleichungen (ausgedrückt durch das grundlegende Tensorfeld G) bestimmt: das Tensorfeld P muss hyperbolisch, zeitorientierbar und energie-differenzierend sein. Diese drei notwendigen Bedingungen an die Geometrie genügen, um alle aus der Lorentzschen Geometrie bekannten kinematischen Konstruktionen zu realisieren. Dies zeigen wir im ersten Teil der vorliegenden Arbeit unter Verwendung eines teilweise recht subtilen Wechselspiels zwischen konvexer Analysis, der Theorie partieller Differentialgleichungen und reeller algebraischer Geometrie. Im zweiten Teil dieser Dissertation erforschen wir allgemeine Eigenschaften aller solcher hyperbolischen, zeit-orientierbaren und energie-differenzierenden Geometrien. Physikalisch wichtig sind der Aufbau von frei fallenden und nicht rotierenden Laboratorien, das Auftreten modifizierter Energie-Impuls-Beziehungen und die Identifizierung eines Mechanismus, der erklärt, warum massive Teilchen, die sich schneller als einige masselosse Teilchen bewegen, Energie abstrahlen können, aber nur bis sie sich langsamer als alle masselossen Teilchen bewegen. Im dritten Teil der Dissertation ergründen wir die Quantisierung von Teilchen und Feldern auf tensoriellen Raumzeit-Geometrien, die die obigen physikalischen Bedingungen erfüllen. Eine wichtige Motivation dieser Untersuchung ist es, Techniken zur Berechnung der Zerfallsrate von Teilchen zu berechnen, die sich schneller als langsame masselose Teilchen bewegen. Wir finden, dass es wiederum die drei zuvor im klassischen Kontext identifizierten Voraussetzungen (der Hyperbolizität, Zeit-Orientierbarkeit und Energie-Differenzierbarkeit) sind, welche die Quantisierung allgemeiner linearer Elektrodynamik auf einer flächenmetrischen Raumzeit und die Quantizierung massiver Teilchen, die eine physikalische Energie-Impuls-Beziehung respektieren, erlauben. Wir erkunden auch systematisch, wie man Feldgleichungen aller Ableitungsordnungen generieren kann und beweisen einen Satz, der verallgemeinerte Dirac-Algebren bestimmt und die damit Reduzierung des Ableitungsgrades einer physikalischen Materiefeldgleichung ermöglicht. Der letzte Teil der vorliegenden Schrift skizziert ein bemerkenswertes Ergebnis, das mit den in dieser Dissertation dargestellten Techniken erzielt wurde. Insbesondere aufgrund der hier identifizierten dualen Abbildungen zwischen Teilchenimpulsen und -geschwindigkeiten auf allgemeinen tensoriellen Raumzeiten war es möglich zu zeigen, dass man die Gravitationsdynamik für hyperbolische, zeit-orientierbare und energie-differenzierende Geometrien nicht postulieren muss, sondern dass sich das Problem ihrer Konstruktion auf eine rein mathematische Aufgabe reduziert: die Lösung eines homogenen linearen Differentialgleichungssystems. Dieses weitreichende Ergebnis über modifizierte Gravitationstheorien ist eine direkte (aber schwer herzuleitende) Folgerung der Forschungsergebnisse dieser Dissertation. Die abstrakte Theorie dieser Doktorarbeit wird durch mehrere instruktive Beispiele illustriert. KW - refined spacetime geometries KW - modified dispersion relations KW - modified gravitational dynamics KW - Finsler geometry KW - quantization of field theories Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61869 ER - TY - THES A1 - He, Ling T1 - Wanderarbeiter in Peking : räumliche, soziale und ökonomische Aspekte eines aktuellen Migrationsproblems in China N2 - Der boomende Wirtschaftsriese China erfährt weltweit immer mehr Aufmerksamkeit von Politik, Wirtschaft, Wissenschaft und Öffentlichkeit. Gleichzeitig werden aber auch innere soziale Probleme und die großen regionalen Disparitäten des Landes angesprochen. Auch Berichte über die Situation der Wanderarbeiter in den Großstädten des Landes häufen sich. Obwohl sich die Wissenschaft ebenfalls dieses Themas angenommen hat, mangelt es noch an Untersuchungen darüber, insbesondere an solchen, die eingehend und systematisch mit empirischen Erhebungen „vor Ort“ dieses Phänomen studieren. In diese Lücke stößt die Dissertation von Ling He. In ihrem Mittelpunkt steht das Alltagsleben der Arbeitsmigranten in Peking. Dabei werden behandelt: die Migrationsmotive, die strukturellen und individuellen Rahmenbedingungen für die Arbeitsmigranten und ihre Familien, die Arbeits- und Lebensbedingungen, die Bildung finanzieller Ressourcen sowie auch die Konstruktion sozialer Netzwerke und die Integration der Migranten in Peking. Außerdem geht die Dissertation ein auf die Vorteile, die für die etwa 17 Millionen Einwohner zählende Stadt durch die Beschäftigung der etwa 3 Millionen Arbeitsmigranten geschaffen werden, und sie weist auf die sozialen und ökonomischen Probleme hin, die im Zusammenhang mit der Arbeitsmigration gelöst werden müssten. T3 - Praxis Kultur- und Sozialgeographie | PKS - 55 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59247 SN - 978-3-86956-180-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Ulbrich, Hannes-Friedrich T1 - Die Krankenhäuser Ostdeutschlands in Transition : eine registerbasierte Analyse amtlicher Paneldaten N2 - Vorliegende Arbeit untersucht – nach intensiver Datenanalyse und -klärung – die ersten eineinhalb Jahrzehnte Transition in Ostdeutschland ökonometrisch. Im Mittelpunkt stehen dabei die Interaktionen zwischen der allgemeinen Wirtschaft und den Krankenhäusern sowie – auf Basis der Hauptdiagnose – den in Krankenhäusern behandelten Krankheiten. Verschiedene, in den politischen Diskussionen zur Effizienz der Krankenhäuser übliche Indikatoren werden verglichen und auf ihre Eignung zur adäquaten Beschreibung von Krankenhauskosten und -leistungen geprüft. Durch Einbeziehen der Daten aus Rheinland-Pfalz wird herausgearbeitet, welche der Veränderungen in Ostdeutschland transitionsbezogen sind und ob und wie sich die transitionsbezogenen von eher transitionsunabhängigen Veränderungen trennen lassen. Dazu werden den Daten – jährlich erhobenen Angaben zu einem jeden Krankenhaus bzw. jedem Kreis des Untersuchungsgebietes – Paneldatenmodelle angepasst. Ergänzt um deskriptive Statistiken, Graphen und Choroplethenkarten sind diese Modelle Grundlage einer wirtschaftswissenschaftlichen Interpretation der Veränderungen zwischen 1992 und 2005. Größten Einfluss auf die Krankenhäuser in Ost- wie in Westdeutschland haben die sich verändernden Rahmenbedingungen, zuvörderst die etappenweise Ablösung einer budgetbasierten Krankenhausfinanzierung durch eine, die auf Fallpauschalen für die verschieden schweren Krankenhausfälle (per diagnose related groups – DRG) basiert. Bereits die um das Jahr 2000 unter den Ärzten und Krankenhausmanagern beginnende Diskussion um die Fallpauschalen führt zu erheblichen Veränderungen bei der ärztlichen Diagnosestellung (bzw. -kodierung), diese Veränderungen werden diskutiert. Vor allem den Besonderheiten der Finanzierung des deutschen Gesundheitswesens ist es geschuldet, dass die Transition für die ostdeutschen Krankenhäuser sehr schnell zu einem den westlichen Krankenhäusern ähnlichen Leistungs- und Kostenniveau führt und dass mikroökonomische Unterschiede in Wirtschafts- und Sozialparametern kaum Einfluss auf die Krankenhäuser haben. N2 - This research investigates the first 15 years of East Germany’s transition from an econometric perspective. Primary interest of the investigations lies with the potential interactions between the overall economic situation and the hospitals as well all the hospital treated patients. Economic and legislative discussions of hospital efficiency are heavily based on economic indicators. Common indicators are compared for their usefulness in describing hospital efforts and costs. By incorporating data of one of the West German federal states – Rhineland-Palatinate – distinctions can be made between transition and non-transition related changes. Panel data regression models are applied to yearly hospital and district economic data. Their interpretation is supported by descriptive statistics, graphs and choropleth maps. The hospitals of both East and West Germany are heavily influenced by the changes of the political and economic environment – most particularly by the transition from the budget-based financing to the lump compensation (DRG) based reimbursement. The data reveals that the year 2000 marks both the beginning of hospital physicians’ and managers’ discussion of the upcoming DRG system as well as the beginning of major changes in diagnosing (or diagnose coding) – these changes are discussed. Above all other it is the financing particularities of the German health care system that East Germany’s hospitals minimized the gap to their West German counterparts quite quickly with regard to performance and costs; microeconomic differences between districts have only minor influence on the hospitals. T3 - Potsdamer Schriften zu Statistik und Wirtschaft - 4 KW - Transition KW - Ostdeutschland KW - Krankenhäuser KW - Diagnosen KW - Panelanalysen KW - Amtliche Statistik KW - Transition KW - East Germany KW - Hospitals KW - Diagnoses KW - Panel analyses KW - Official Statstics Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60408 SN - 978-3-86956-200-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Schumacher, Reinhard T1 - Free trade and absolute and comparative advantage : a critical comparison of two major theories of international trade N2 - This thesis deals with two theories of international trade: the theory of comparative advantage, which is connected to the name David Ricardo and is dominating current trade theory, and Adam Smith’s theory of absolute advantage. Both theories are compared and their assumptions are scrutinised. The former theory is rejected on theoretical and empirical grounds in favour of the latter. On the basis of the theory of absolute advantage, developments of free international trade are examined, whereby the focus is on trade between industrial and underdeveloped countries. The main conclusions are that trade patterns are determined by absolute production cost advantages and that the gap between developed and poor countries is not reduced but rather increased by free trade. N2 - Die vorliegende Publikation vergleicht die zwei zentralen Theorien des internationalen Freihandels: die Theorie der absoluten Kostenvorteile und die Theorie der komparativen Kostenvorteile. Dieser Vergleich führt zu dem Schluss, dass die Theorie der komparativen Kostenvorteile im Gegensatz zu der Theorie der absoluten Kostenvorteile auf unrealistischen und problematischen Annahmen beruht. Im Anschluss werden auf Grundlage der Theorie der absoluten Kostenvorteile zentrale Tendenzen in der Entwicklung des internationalen Handels herausgearbeitet. Im Mittelpunkt steht hierbei die Auswirkung von Freihandel auf entwickelte und unterentwickelte Länder. Die zentralen Schlussfolgerungen dieser Arbeit sind erstens, dass die Richtung des internationalen Handels nicht durch komparative Kostenvorteile, sondern durch absolute Kostenvorteile bestimmt wird und zweitens, dass Freihandel zwar vorteilhaft für unterentwickelte Länder sein kann, aber dass durch Freihandel die Unterschiede zwischen Industrieländern und Entwicklungsländern nicht verkleinert, sondern vergrößert werden. T3 - WeltTrends Thesis - 16 KW - Außenhandel KW - Adam Smith KW - Absoluter Kostenvorteil KW - Komparativer Kostenvorteil KW - International trade KW - Adam Smith KW - Absolute Advantage KW - Comparative Advantage Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60237 SN - 978-3-86956-195-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Buchmann, Carsten M. T1 - Modelling the structuring of animal communities in heterogeneous landscapes : the role of individual home range formation, foraging movement, competition and habitat configuration T1 - Modellierung zur Strukturierung von Tiergemeinschaften in heterogenen Landschaften : die Bedeutung von individuellen Aktionsräumen, Bewegung, Konkurrenz und Habitatkonfiguration N2 - This thesis aims at a better mechanistic understanding of animal communities. Therefore, an allometry- and individual-based model has been developed which was used to simulate mammal and bird communities in heterogeneous landscapes, and to to better understand their response to landscape changes (habitat loss and fragmentation). N2 - Diese Doktorarbeit strebt ein besseres mechanistisches Verständnis von Tiergemeinschaften an. Dafür wurde ein allometrie- und individuen-basiertes Modell entwickelt und dazu benutzt, Säugetier- und Vogelgemeinschaften in heterogenen Landschaften zu simulieren, und ihre Reaktion auf Landschaftsveränderungen (Habitatverlust und -fragmentierung) besser zu verstehen. KW - Allometrie KW - Aktionsraum KW - Artengemeinschaft KW - Bewegung KW - Modell KW - home range KW - allometry KW - individual-based model KW - allometry KW - community Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59031 ER - TY - INPR A1 - Klein, Markus A1 - Léonard, Christian A1 - Rosenberger, Elke T1 - Agmon-type estimates for a class of jump processes N2 - In the limit we analyze the generators of families of reversible jump processes in the n-dimensional space associated with a class of symmetric non-local Dirichlet forms and show exponential decay of the eigenfunctions. The exponential rate function is a Finsler distance, given as solution of certain eikonal equation. Fine results are sensitive to the rate functions being twice differentiable or just Lipschitz. Our estimates are similar to the semiclassical Agmon estimates for differential operators of second order. They generalize and strengthen previous results on the lattice. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 1 (2012) 6 KW - finsler distance KW - decay of eigenfunctions KW - jump process KW - Dirichlet form Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56995 ER - TY - JOUR A1 - Geschonke, Sebastian T1 - Zukunftsfähigkeit durch Nachhaltigkeit JF - Perspektiven für morgen : Gedanken zur Zukunft von Politik, Wirtschaft und Gesellschaft N2 - Inhalt: - Verschiedene Dimensionen der Nachhaltigkeit - Das Gemeinsame der verschiedenen Dimensionen - Das Streben nach einem besseren Verständnis der Welt - Nachhaltigkeit - Ein allgemeines Modell der Nachhaltigkeit: Das »Existenzraum-Modell« - Das Metasystem Erde - Die Zukunftsfähigkeit der Gesellschaft KW - Nachhaltigkeit KW - Zukunft KW - Politik KW - Wirtschaft KW - Gesellschaft KW - sustainability KW - future KW - politics KW - economy KW - society Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60553 SP - 22 EP - 40 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Larhlimi, Abdelhalim A1 - David, Laszlo A1 - Selbig, Joachim A1 - Bockmayr, Alexander T1 - F2C2 BT - a fast tool for the computation of flux coupling in genome-scale metabolic networks T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Background: Flux coupling analysis (FCA) has become a useful tool in the constraint-based analysis of genome-scale metabolic networks. FCA allows detecting dependencies between reaction fluxes of metabolic networks at steady-state. On the one hand, this can help in the curation of reconstructed metabolic networks by verifying whether the coupling between reactions is in agreement with the experimental findings. On the other hand, FCA can aid in defining intervention strategies to knock out target reactions. Results: We present a new method F2C2 for FCA, which is orders of magnitude faster than previous approaches. As a consequence, FCA of genome-scale metabolic networks can now be performed in a routine manner. Conclusions: We propose F2C2 as a fast tool for the computation of flux coupling in genome-scale metabolic networks. F2C2 is freely available for non-commercial use at https://sourceforge.net/projects/f2c2/files/. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 921 KW - balance analysis KW - reconstruction KW - pathways KW - models KW - metabolic network KW - couple reaction KW - reversible reaction KW - linear programming problem KW - coupling relationship Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432431 SN - 1866-8372 IS - 921 ER - TY - JOUR A1 - Andress, Reinhard A1 - von Brescius, Moritz A1 - Ette, Ottmar A1 - Holl, Frank A1 - Knobloch, Eberhard ED - Ette, Ottmar ED - Knobloch, Eberhard T1 - HiN : Alexander von Humboldt im Netz = À propos Kehlmann T2 - HIN : Alexander von Humboldt im Netz ; international review for Humboldtian studies N2 - Inhalt: Andress, Reinhard: Ein kurzer Brief Humboldts an den Hofmarschall Moritz, Brescius von: Connecting the new world : nets, mobility and progress in the age of Alexander von Humboldt Ette, Ottmar: Alexander von Humboldt in Daniel Kehlmanns Welt Ette, Ottmar: De cómicos e histéricos : una réplica a la sátira sobre eruditos de Daniel Kehlmann Holl, Frank:"Die zweitgrößte Beleidigung des Menschen sei die Sklaverei ..." : Daniel Kehlmanns neu erfundener Alexander von Humboldt Knobloch, Eberhard: Alexander von Humboldt und Carl Friedrich Gauß : im Roman und in Wirklichkeit T3 - HiN : Alexander von Humboldt im Netz ; International Review for Humboldtian Studies - XIII.2012, 25 KW - Briefe KW - Briefedition und -korrespondenz KW - Indiana University KW - Lilly Library KW - von Humboldts Hand KW - Aufklärung KW - Beschleunigung KW - Fortschritt KW - Kommunikation KW - Mobilität KW - Netz KW - Transporttechnologie KW - Carl Friedrich Gauß KW - Daniel Kehlmann KW - Die Vermessung der Welt KW - Schwerpunktthema „À propos Kehlmann“ Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62139 SN - 1617-5239 SN - 2568-3543 VL - XIII IS - 25 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Schmuck, Thomas A1 - Andress, Reinhard A1 - Navia, Silvia A1 - Kraft, Tobias A1 - Südfels, Aliya-Katarina A1 - Jahn, Ilse ED - Ette, Ottmar ED - Knobloch, Eberhard T1 - HiN : Alexander von Humboldt im Netz N2 - Inhalt: - Thomas Schmuck: Der Briefwechsel zwischen Alexander von Humboldt und Karl Ernst von Baer - Reinhard Andress / Silvia Navia: Das Tagebuch von Carlos Montúfar: Faksimile und neue Transkription - Tobias Kraft: Textual Differences in Alexander von Humboldt’s Essai politique sur l’île de Cuba. An editorial commentary on the first volume of the »Humboldt in English« (HiE) book series - Aliya-Katarina Südfels: Ludwig Leichhardt und Alexander von Humboldt - Ilse Jahn: Die Beziehung Karl Ernst von Baers zu Berliner Zoologen während seines Wirkens in Königsberg (1818-1834) T3 - HiN : Alexander von Humboldt im Netz ; International Review for Humboldtian Studies - XIII.2012, 24 KW - Briefwechsel KW - Karl Ernst von Baer KW - Zeitgenossen KW - von Humboldts Hand KW - Aimé Bonpland KW - Carlos Montúfar KW - Digitalisate KW - Expedition KW - Faksimile KW - Reisetagebuch KW - Transkription KW - Critical edition KW - Essai politique sur l'île de Cuba KW - Humboldt in English (HiE) KW - Ottmar Ette KW - Vanderbilt University KW - Vera Kutzinski KW - Biographisches KW - Ludwig Leichhardt KW - Naturwissenschaftler KW - Paris KW - Preußen KW - Königsberg KW - neu gelesen KW - Thomas Schmuck KW - Zoologie Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61407 SN - 1617-5239 SN - 2568-3543 VL - XIII IS - 24 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Ette, Ottmar T1 - Alexander von Humboldt in Daniel Kehlmanns Welt N2 - Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären? N2 - In the last 25 years, Alexander von Humboldt‘s popularity has radically changed in the german-speaking public opinion. Proof of this are not only television surveys about the most famous germans - in which Alexander von Humboldt now regularly figures - or television series about contemporary expeditions, which constantly refer to Humboldt‘s name; perhaps what most clearly verifies this change is the great success of Daniel Kehlmann‘s novel Die Vermessung der Welt. Without the recent developments outlined above, this novel‘s degree of impact would have been unimaginable. To study the great success of this text against this backdrop is not only attractive, but also revealing. What is Die Vermessung der Welt really about? And how can we explain the »Kehlmann phenomenon« from a greater distance? N2 - La popularidad de Alejandro de Humboldt ha cambiado profundamente dentro del último cuarto de siglo en la opinión pública de habla alemana. Prueba de esto son no sólo las encuestas televisivas sobre los alemanes más famosos, dentro de las cuales figura en estos momentos Alejandro de Humboldt, o programas de televisión sobre expediciones actuales, en los que continuamente se retoma el nombre de Humboldt; quizás la comprobación más clara de este cambio es el éxito enorme de la novela Die Vermessung der Welt de Daniel Kehlmann. Éxito que sería impensable sin el proceso esbozado más arriba. Ante este trasfondo, estudiar el gran éxito de esta pequeña novela resulta no sólo atractivo, sino además revelador. ¿De qué se trata Die Vermessung der Welt? ¿Cómo se puede explicar el »fenómeno Kehlmann« desde una distancia relativamente mayor? KW - Carl Friedrich Gauß KW - Daniel Kehlmann KW - Die Vermessung der Welt KW - Schwerpunktthema „À propos Kehlmann“ Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62391 SN - 1617-5239 SN - 2568-3543 VL - XIII IS - 25 SP - 34 EP - 40 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Ette, Ottmar T1 - De cómicos e histéricos BT - Una réplica a la sátira sobre eruditos de Daniel Kehlmann N2 - La popularidad de Alejandro de Humboldt ha cambiado profundamente dentro del último cuarto de siglo en la opinión pública de habla alemana. Prueba de esto son no sólo las encuestas televisivas sobre los alemanes más famosos, dentro de las cuales figura en estos momentos Alejandro de Humboldt, o programas de televisión sobre expediciones actuales, en los que continuamente se retoma el nombre de Humboldt; quizás la comprobación más clara de este cambio es el éxito enorme de la novela Die Vermessung der Welt de Daniel Kehlmann. Éxito que sería impensable sin el proceso esbozado más arriba. Ante este trasfondo, estudiar el gran éxito de esta pequeña novela resulta no sólo atractivo, sino además revelador. ¿De qué se trata Die Vermessung der Welt? ¿Cómo se puede explicar el »fenómeno Kehlmann« desde una distancia relativamente mayor? N2 - Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären? N2 - In the last 25 years, Alexander von Humboldt‘s popularity has radically changed in the german-speaking public opinion. Proof of this are not only television surveys about the most famous germans - in which Alexander von Humboldt now regularly figures - or television series about contemporary expeditions, which constantly refer to Humboldt‘s name; perhaps what most clearly verifies this change is the great success of Daniel Kehlmann‘s novel Die Vermessung der Welt. Without the recent developments outlined above, this novel‘s degree of impact would have been unimaginable. To study the great success of this text against this backdrop is not only attractive, but also revealing. What is Die Vermessung der Welt really about? And how can we explain this »Kehlmann phenomenon« from a greater distance? KW - Carl Friedrich Gauß KW - Daniel Kehlmann KW - Die Vermessung der Welt KW - Schwerpunktthema „À propos Kehlmann“ Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62406 SN - 1617-5239 SN - 2568-3543 VL - XIII IS - 25 SP - 41 EP - 45 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Scholz, Markus Reiner T1 - Spin polarization, circular dichroism, and robustness of topological surface states T1 - Spinpolarisation, Zirkulardichroismus und Robustheit Topologischer Oberflächenzustände BT - a photoemission study BT - eine Photoemissionsstudie N2 - Dreidimensionale topologische Isolatoren sind ein neues Materialsystem, welches dadurch charakterisiert ist, dass es in seinem Inneren isolierend an der Ober äche jedoch leitend ist. Ursächlich für die Leitfähigkeit an der Ober äche sind sogenannte topologische Ober- ächenzustände, welche das Valenzband des Inneren mit dem Leitungsband des Inneren verbinden. An der Ober äche ist also die Bandlücke, welche die isolierende Eigenschaft verursacht, geschlossen. Die vorliegende Arbeit untersucht diese Ober ächenzustände mittels spin- und winkelauf- gelöster Photoemissionsspektroskopie. Es wird gezeigt, dass in den Materialien Bi2Se3 und Bi2Te3, in übereinstimmung mit der Literatur, die entscheidenden Charakteristika eines topologischen Ober ächenzustands vorzu nden sind: Die Ober ächenzustände dieser Sys- teme durchqueren die Bandlücke in ungerader Anzahl, sie sind nicht entartet und weisen folgerichtig eine hohe Spinpolarisation auf. Weiterhin wird durch Aufdampfen diverser Adsorbate gezeigt, dass der Ober ächenzustän- de von Bi2Se3 und Bi2Te3, wie erwartet, extrem robust ist. Ober ächenzustände topologisch trivialer Systeme erfüllen diese Eigenschaft nicht; bereits kleine Verunreinigungen kön- nen diese Zustände zerstören, bzw. die Ober äche isolierend machen. Die topologischen Ober ächenzustände können in der vorliegenden Arbeit noch bis zur Detektionsgrenze der experimentellen Messmethode nachgewiesen werden und die Ober äche bleibt Leitfähig. Unter den Adsorbaten be ndet sich auch Eisen, ein bekanntermaßen magnetisches Materi- al. Eine der Grundvoraussetzungen für topologische Isolatoren ist die Zeitumkehrsymme- trie, die Elektronen, welche den topologischen Ober ächenzustand besetzen, vorschreibt, dass sie eine bestimmte Spinrichtung haben müssen, wenn sie sich beispielsweise nach links bewegen und den entgegengesetzten Spin wenn sie sich nach rechts bewegen. In magnetischen Materialien ist die Zeitumkehrsymmetrie jedoch explizit gebrochen und die gezeigte Robustheit des Ober ächenzustands gegen magnetische Materialien daher uner- wartet. Die Zeitumkehrsymmetrie sorgt auch dafür, dass eine Streuung der Elektronen um 180°, beispielsweise an einem Gitterdefekt oder an einem Phonon strikt verboten ist. Bei einem solchen Streuprozess bleibt die Spinrichtung erhalten, da aber in der Gegenrichtung nur Zustände mit entgegengesetztem Spin vorhanden sind kann das Elektron nicht in diese Richtung gestreut werden. Dieses Prinzip wird anhand der Lebensdauer der durch Pho- toemission angeregten Zustände untersucht. Hierbei wird gezeigt, dass die Kopplung der Elektronen des Ober ächenzustands von Bi2Te3 an Phononen unerwartet hoch ist und dass sich eine Anisotropie in der Bandstruktur des Selbigen auch in den Lebensdauern der ange- regten Zustände widerspiegelt. Weiterhin wird gezeigt, dass sich die Ein üsse von magne- tischen und nicht-magnetischen Verunreinigungen auf die Lebensdauern stark voneinander unterscheiden. Im letzten Teil der vorliegenden Arbeit wird untersucht, ob eine Asymmetrie in der Inten- sitätsverteilung der winkelaufgelösten Photoemissionsspektren, bei Anregung mit zirku- lar polarisiertem Licht, in Bi2Te3 Rückschlüsse auf die Spinpolarisation der Elektronen erlaubt. Bei Variation der Energie des eingestrahlten Lichts wird ein Vorzeichenwechsel der Asymmetrie beobachtet. Daraus lässt sich schlussfolgern, dass die Asymmetrie keine Rückschlüsse auf die Spinpolarisation erlaubt. N2 - This thesis is focussed on the electronic properties of the new material class named topological insulators. Spin and angle resolved photoelectron spectroscopy have been applied to reveal several unique properties of the surface state of these materials. The first part of this thesis introduces the methodical background of these quite established experimental techniques. In the following chapter, the theoretical concept of topological insulators is introduced. Starting from the prominent example of the quantum Hall effect, the application of topological invariants to classify material systems is illuminated. It is explained how, in presence of time reversal symmetry, which is broken in the quantum Hall phase, strong spin orbit coupling can drive a system into a topologically non trivial phase. The prediction of the spin quantum Hall effect in two dimensional insulators an the generalization to the three dimensional case of topological insulators is reviewed together with the first experimental realization of a three dimensional topological insulator in the Bi1-xSbx alloys given in the literature. The experimental part starts with the introduction of the Bi2X3 (X=Se, Te) family of materials. Recent theoretical predictions and experimental findings on the bulk and surface electronic structure of these materials are introduced in close discussion to our own experimental results. Furthermore, it is revealed, that the topological surface state of Bi2Te3 shares its orbital symmetry with the bulk valence band and the observation of a temperature induced shift of the chemical potential is to a high probability unmasked as a doping effect due to residual gas adsorption. The surface state of Bi2Te3 is found to be highly spin polarized with a polarization value of about 70% in a macroscopic area, while in Bi2Se3 the polarization appears reduced, not exceeding 50%. We, however, argue that the polarization is most likely only extrinsically limited in terms of the finite angular resolution and the lacking detectability of the out of plane component of the electron spin. A further argument is based on the reduced surface quality of the single crystals after cleavage and, for Bi2Se3 a sensitivity of the electronic structure to photon exposure. We probe the robustness of the topological surface state in Bi2X3 against surface impurities in Chapter 5. This robustness is provided through the protection by the time reversal symmetry. Silver, deposited on the (111) surface of Bi2Se3 leads to a strong electron doping but the surface state is observed up to a deposited Ag mass equivalent to one atomic monolayer. The opposite sign of doping, i.e., hole-like, is observed by exposing oxygen to Bi2Te3. But while the n-type shift of Ag on Bi2Se3 appears to be more or less rigid, O2 is lifting the Dirac point of the topological surface state in Bi2Te3 out of the valence band minimum at $\Gamma$. After increasing the oxygen dose further, it is possible to shift the Dirac point to the Fermi level, while the valence band stays well beyond. The effect is found reversible, by warming up the samples which is interpreted in terms of physisorption of O2. For magnetic impurities, i.e., Fe, we find a similar behavior as for the case of Ag in both Bi2Se3 and Bi2Te3. However, in that case the robustness is unexpected, since magnetic impurities are capable to break time reversal symmetry which should introduce a gap in the surface state at the Dirac point which in turn removes the protection. We argue, that the fact that the surface state shows no gap must be attributed to a missing magnetization of the Fe overlayer. In Bi2Te3 we are able to observe the surface state for deposited iron mass equivalents in the monolayer regime. Furthermore, we gain control over the sign of doping through the sample temperature during deposition. Chapter6 is devoted to the lifetime broadening of the photoemission signal from the topological surface states of Bi2Se3 and Bi2Te3. It is revealed that the hexagonal warping of the surface state in Bi2Te3 introduces an anisotropy for electrons traveling along the two distinct high symmetry directions of the surface Brillouin zone, i.e., $\Gamma$K and $\Gamma$M. We show that the phonon coupling strength to the surface electrons in Bi2Te3 is in nice agreement with the theoretical prediction but, nevertheless, higher than one may expect. We argue that the electron-phonon coupling is one of the main contributions to the decay of photoholes but the relatively small size of the Fermi surface limits the number of phonon modes that may scatter off electrons. This effect is manifested in the energy dependence of the imaginary part of the electron self energy of the surface state which shows a decay to higher binding energies in contrast to the monotonic increase proportional to E$^2$ in the Fermi liquid theory due to electron-electron interaction. Furthermore, the effect of the surface impurities of Chapter 5 on the quasiparticle life- times is investigated. We find that Fe impurities have a much stronger influence on the lifetimes as compared to Ag. Moreover, we find that the influence is stronger independently of the sign of the doping. We argue that this observation suggests a minor contribution of the warping on increased scattering rates in contrast to current belief. This is additionally confirmed by the observation that the scattering rates increase further with increasing silver amount while the doping stays constant and by the fact that clean Bi2Se3 and Bi2Te3 show very similar scattering rates regardless of the much stronger warping in Bi2Te3. In the last chapter we report on a strong circular dichroism in the angle distribution of the photoemission signal of the surface state of Bi2Te3. We show that the color pattern obtained by calculating the difference between photoemission intensities measured with opposite photon helicity reflects the pattern expected for the spin polarization. However, we find a strong influence on strength and even sign of the effect when varying the photon energy. The sign change is qualitatively confirmed by means of one-step photoemission calculations conducted by our collaborators from the LMU München, while the calculated spin polarization is found to be independent of the excitation energy. Experiment and theory together unambiguously uncover the dichroism in these systems as a final state effect and the question in the title of the chapter has to be negated: Circular dichroism in the angle distribution is not a new spin sensitive technique. KW - topological insulators KW - angle resolved photoelectron spectroscopy KW - spin resolved photoelectron spectroscopy KW - Bi2Se3 KW - Bi2Te3 KW - quasiparticle interactions KW - circular dichroism KW - spin-orbit coupling KW - time reversal symmetry KW - surface states KW - Spinpolarisation KW - Zirkulardichroismus KW - topologische Isolatoren KW - Oberflächenzustände KW - winkelaufgelöste Photoelektronenspektroskopie KW - spinaufgelöste Photoelektronenspektroskopie KW - Magnetismus KW - Bi2Te3 KW - Bi2Se3 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96686 ER - TY - THES A1 - Jeromenok, Jekaterina T1 - Polymers from the natural product betulin : a microstructural investigation T1 - Polymere aus dem Naturstoff Betulin und Untersuchungen ihrer Mikrostruktur N2 - Porous materials (e.g. zeolites, activated carbon, etc.) have found various applications in industry, such as the use as sorbents, catalyst supports and membranes for separation processes. Recently, much attention has been focused on synthesizing porous polymer materials. A vast amount of tailor-made polymeric systems with tunable properties has been investigated. Very often, however, the starting substances for these polymers are of petrochemical origin, and the processes are all in all not sustainable. Moreover, the new polymers have challenged existing characterizing methodologies. These have to be further developed to address the upcoming demands of the novel materials. Some standard techniques for the analysis of porous substances like nitrogen sorption at 77 K do not seem to be sufficient to answer all arising questions about the microstructure of such materials. In this thesis, microporous polymers from an abundant natural resource, betulin, will be presented. Betulin is a large-scale byproduct of the wood industry, and its content in birch bark can reach 30 wt.%. Based on its rigid structure, polymer networks with intrinsic microporosity could be synthesized and characterized. Apart from standard nitrogen and carbon dioxide sorption at 77 K and 273 K, respectively, gas sorption has been examined not only with various gases (hydrogen and argon) but also at various temperatures. Additional techniques such as X-ray scattering and xenon NMR have been utilized to enable insight into the microporous structure of the material. Starting from insoluble polymer networks with promising gas selectivities, soluble polyesters have been synthesized and processed to a cast film. Such materials are feasible for membrane applications in gas separation. Betulin as a starting compound for polyester synthesis has aided to prepare, and for the first time to thoroughly analyse a microporous polyester with respect to its pores and microstructure. It was established that nitrogen adsorption at 87 K can be a better method to solve the microstructure of the material. In addition to that, other betulin-based polymers such as polyurethanes and polyethylene glycol bioconjugates are presented. Altogether, it has been shown that as an abundant natural resource betulin is a suitable and cheap starting compound for some polymers with various potential applications. N2 - Das Bestreben, ölbasierte Produkte durch nachwachsende Rohstoffe zu ersetzen, hat dazu geführt, dass in immer größerer Zahl günstige, reichlich vorhandene Naturstoffe als Ausgangsstoffe für chemische Synthesen untersucht werden. In dieser Arbeit werden Polymere auf Basis von Betulin, einem aus Birkenrinde extrahierten Naturstoff, vorgestellt. Betulin ist zu 30 Gewichtsprozent in Birkenrinde enthalten. Da Betulin ein Nebenprodukt der Holzindustrie ist, ist es kostengünstig und sein Einsatz als Ausgangsstoff äußerst lukrativ. Die ersten Berichte über Betulin-basierte Polymere sind in den 1980er Jahren in Russland und Finnland erschienen, in den Ländern mit großen natürlichen Vorkommen an Birken. Betulin wurde in dieser Arbeit verwendet, um sogenannte mikroporöse Polymere herzustellen. Dies sind Stoffe mit Poren von molekularer Dimension. Mikroporöse Materialien sind wegen ihrer potentiellen Anwendung als Katalysatorträger und Gasseparationsmembranen hochinteressant. Die Klasse mikroporöser Polymere wurde durch die Synthese von unlöslichen Betulin-basierten Polyesternetzwerken erweitert. Außerdem gelang es, lösliche Polyester in Form dünner Filme herzustellen. Diese zeigten vielversprechende Ergebnisse in der Trennung von Stickstoff und Kohlendioxid und weisen somit Potential für die Nutzung als Membran auf. Dies könnte z. B. für Kohlendioxid-Reduzierung in Postcombustion-Verfahren interessant sein. Überdies wurde gezeigt, dass Stickstoffadsorption bei 77 K nicht ohne weiteres als Standardmethode für die Analyse von mikroporösen Materialien geeignet ist und dass die mikroporösen Materialien ferner durch Stickstoffadsorption bei 87 K und andere Gassorptionsmethoden bei verschiedenen Temperaturen zu charakterisieren sind. Diese Arbeit trägt zum besseren Verständnis mikroporöser Polymere bei. KW - Betulin KW - mikroporöse Polymere KW - Polyeste r KW - Gaspermeation KW - Naturstoff KW - Betulin KW - gas permeation KW - microporous polymers KW - polyesters KW - renewable resources Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61380 ER - TY - THES A1 - Fechler, Nina T1 - Salts as highly diverse porogens : functional ionic liquid-derived carbons and carbon-based composites for energy-related applications T1 - Salze als vielfältige Porogene : funktionelle, ionische Flüssigkeiten basierte Kohlenstoffe und Kohlenstoff basierte Komposite für Energieanwendungen N2 - The present thesis is to be brought into line with the current need for alternative and sustainable approaches toward energy management and materials design. In this context, carbon in particular has become the material of choice in many fields such as energy conversion and storage. Herein, three main topics are covered: 1)An alternative synthesis strategy toward highly porous functional carbons with tunable porosity using ordinary salts as porogen (denoted as “salt templating”) 2)The one-pot synthesis of porous metal nitride containing functional carbon composites 3)The combination of both approaches, enabling the generation of highly porous composites with finely tunable properties All approaches have in common that they are based on the utilization of ionic liquids, salts which are liquid below 100 °C, as precursors. Just recently, ionic liquids were shown to be versatile precursors for the generation of heteroatom-doped carbons since the liquid state and a negligible vapor pressure are highly advantageous properties. However, in most cases the products do not possess any porosity which is essential for many applications. In the first part, “salt templating”, the utilization of salts as diverse and sustainable porogens, is introduced. Exemplarily shown for ionic liquid derived nitrogen- and nitrogen-boron-co-doped carbons, the control of the porosity and morphology on the nanometer scale by salt templating is presented. The studies within this thesis were conducted with the ionic liquids 1-Butyl-3-methyl-pyridinium dicyanamide (Bmp-dca), 1-Ethyl-3-methyl-imidazolium dicyanamide (Emim-dca) and 1 Ethyl 3-methyl-imidazolium tetracyanoborate (Emim-tcb). The materials are generated through thermal treatment of precursor mixtures containing one of the ionic liquids and a porogen salt. By simple removal of the non-carbonizable template salt with water, functional graphitic carbons with pore sizes ranging from micro- to mesoporous and surface areas up to 2000 m2g-1 are obtained. The carbon morphologies, which presumably originate from different onsets of demixing, mainly depend on the nature of the porogen salt whereas the nature of the ionic liquid plays a minor role. Thus, a structural effect of the porogen salt rather than activation can be assumed. This offers an alternative to conventional activation and templating methods, enabling to avoid multiple-step and energy-consuming synthesis pathways as well as employment of hazardous chemicals for the template removal. The composition of the carbons can be altered via the heat-treatment procedure, thus at lower synthesis temperatures rather polymeric carbonaceous materials with a high degree of functional groups and high surface areas are accessible. First results suggest the suitability of the materials for CO2 utilization. In order to further illustrate the potential of ionic liquids as carbon precursors and to expand the class of carbons which can be obtained, the ionic liquid 1-Ethyl-3-methyl-imidazolium thiocyanate (Emim-scn) is introduced for the generation of nitrogen-sulfur-co-doped carbons in combination with the already studied ionic liquids Bmp-dca and Emim-dca. Here, the salt templating approach should also be applicable eventually further illustrating the potential of salt templating, too. In the second part, a one-pot and template-free synthesis approach toward inherently porous metal nitride nanoparticle containing nitrogen-doped carbon composites is presented. Since ionic liquids also offer outstanding solubility properties, the materials can be generated through the carbonization of homogeneous solutions of an ionic liquid acting as nitrogen as well as carbon source and the respective metal precursor. The metal content and surface area are easily tunable via the initial metal precursor amount. Furthermore, it is also possible to synthesize composites with ternary nitride nanoparticles whose composition is adjustable by the metal ratio in the precursor solution. Finally, both approaches are combined into salt templating of the one-pot composites. This opens the way to the one-step synthesis of composites with tunable composition, particle size as well as precisely controllable porosity and morphology. Thereby, common synthesis strategies where the product composition is often negatively affected by the template removal procedure can be avoided. The composites are further shown to be suitable as electrodes for supercapacitors. Here, different properties such as porosity, metal content and particle size are investigated and discussed with respect to their influence on the energy storage performance. Because a variety of ionic liquids, metal precursors and salts can be combined and a simple closed-loop process including salt recycling is imaginable, the approaches present a promising platform toward sustainable materials design. N2 - Die vorliegende Arbeit basiert auf der Notwendigkeit für eine alternative und nachhaltige Energiewirtschaft sowie alternativer Herstellungsmethoden der damit verbundenen Materialien. Hierbei kommt besonders Kohlenstoffen und kohlenstoffbasierten Systemen eine hohe Bedeutung zu. Im Rahmen der Dissertation wurden drei Ansätze verfolgt, die zu der Entwicklung alternativer Strategien zur Herstellung poröser Heteroatom-enthaltender Kohlenstoffe und deren Komposite beitragen. Die Materialien wurden des Weiteren für die CO2 Nutzung sowie Energiespeicherung in Form von Superkondensatoren getestet. Allen Materialien ist gemeinsam, dass sie ausgehend von ionischen Flüssigkeiten, Salze mit einem Schmelzpunkt unterhalb von 100 °C, als Kohlenstoffvorstufe durch Hochtemperaturverfahren hergestellt wurden. Im ersten Teil wird ein alternatives und nachhaltiges Verfahren zur Herstellung hochporöser Stickstoff und Stickstoff-Bor-haltiger Kohlenstoffe vorgestellt. Bei dieser als „Salztemplatierung“ bezeichneten Methode werden herkömmliche Salze als Porogen verwendet. Damit sind sehr hohe Oberflächen erreichbar, die neben der Porengröße und dem Porenvolumen durch die Variation der Salzspezies und Salzmenge einstellbar sind. Dies bietet gegenüber herkömmlichen Templatierungsverfahren den Vorteil, dass das Salz nach erfolgter Karbonisierung der ionischen Flüssigkeit in Anwesenheit der nicht karbonisierbaren Salzspezies einfach mit Wasser auswaschbar ist. Hierbei ist ein Recyclingprozess denkbar. Bei hohen Synthesetemperaturen werden graphitische, bei niedrigen hochfunktionalisierte, polymerartige Produkte erhalten. Letztere erwiesen sich als vielversprechende Materialien für die CO2 Nutzung. Unter Verwendung einer bisher nicht eingesetzten ionische Flüssigkeit konnte weiterhin die Einführung von Schwefel als Heteroatom ermöglicht werden. Im zweiten Teil wird eine Templat-freie Einschrittsynthese von porösen Kompositen aus Metallnitrid Nanopartikeln und Stickstoff-dotiertem Kohlenstoff vorgestellt. Die Materialien werden ausgehend von einer Lösung aus einer ionischen Flüssigkeit und einem Metallvorläufer hergestellt, wobei die ionische Flüssigkeit sowohl als Kohlenstoffvorläufer als auch als Stickstoffquelle für die Metallnitride dient. Der Metallgehalt, das Metallverhältnis in ternären Nitriden und die Oberfläche sind über den Anteil des Metallvorläufers einstellbar. Schließlich werden beide Ansätze zur Salztemplatierung von den Kompositen kombiniert. Dadurch wird die Einschrittsynthese von Kompositen mit einstellbarer Oberfläche, Zusammensetzung, Partikelgröße und Morphologie ermöglicht. Diese Materialien wurden schließlich als Elektroden für Superkondensatoren getestet und der Einfluss verschiedener Parameter auf die Leistungsfähigkeit untersucht. Aufgrund verschiedener Kombinationsmöglichkeiten von ionischen Flüssigkeiten, Metallvorläufern und Salzen, stellen die hier präsentierten Ansätze eine vielversprechende Plattform für die nachhaltige Materialsynthese dar. KW - Salze KW - Poröse Materialien KW - Heteroatom-dotierte Kohlenstoffe KW - Metallnitrid-Kohlenstoff Komposite KW - Superkondensator KW - Salts KW - porous materials KW - heteroatom-doped carbons KW - metal nitride carbon composites KW - supercapacitors Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64775 ER - TY - THES A1 - Wohlgemuth, Stephanie-Angelika T1 - Functional nanostructured hydrothermal carbons for sustainable technologies : heteroatom doping and superheated vapor T1 - Funktionelle, Nanostrukturierte Hydrothermal-Kohlenstoffe für Nachhaltige Technnologien: Heteroatom-Dotierung und Überkritischer Dampf N2 - The underlying motivation for the work carried out for this thesis was the growing need for more sustainable technologies. The aim was to synthesize a “palette” of functional nanomaterials using the established technique of hydrothermal carbonization (HTC). The incredible diversity of HTC was demonstrated together with small but steady advances in how HTC can be manipulated to tailor material properties for specific applications. Two main strategies were used to modify the materials obtained by HTC of glucose, a model precursor representing biomass. The first approach was the introduction of heteroatoms, or “doping” of the carbon framework. Sulfur was for the first time introduced as a dopant in hydrothermal carbon. The synthesis of sulfur and sulfur/nitrogen doped microspheres was presented whereby it was shown that the binding state of sulfur could be influenced by varying the type of sulfur source. Pyrolysis may additionally be used to tune the heteroatom binding states which move to more stable motifs with increasing pyrolysis temperature. Importantly, the presence of aromatic binding states in the as synthesized hydrothermal carbon allows for higher heteroatom retention levels after pyrolysis and hence more efficient use of dopant sources. In this regard, HTC may be considered as an “intermediate” step in the formation of conductive heteroatom doped carbon. To assess the novel hydrothermal carbons in terms of their potential for electrochemical applications, materials with defined nano-architectures and high surface areas were synthesized via templated, as well as template-free routes. Sulfur and/or nitrogen doped carbon hollow spheres (CHS) were synthesized using a polystyrene hard templating approach and doped carbon aerogels (CA) were synthesized using either the albumin directed or borax-mediated hydrothermal carbonization of glucose. Electrochemical testing showed that S/N dual doped CHS and aerogels derived via the albumin approach exhibited superior catalytic performance compared to solely nitrogen or sulfur doped counterparts in the oxygen reduction reaction (ORR) relevant to fuel cells. Using the borax mediated aerogel formation, nitrogen content and surface area could be tuned and a carbon aerogel was engineered to maximize electrochemical performance. The obtained sample exhibited drastically improved current densities compared to a platinum catalyst (but lower onset potential), as well as excellent long term stability. In the second approach HTC was carried out at elevated temperatures (550 °C) and pressure (50 bar), corresponding to the superheated vapor regime (htHTC). It was demonstrated that the carbon materials obtained via htHTC are distinct from those obtained via ltHTC and subsequent pyrolysis at 550 °C. No difference in htHTC-derived material properties could be observed between pentoses and hexoses. The material obtained from a polysaccharide exhibited a slightly lower degree of carbonization but was otherwise similar to the monosaccharide derived samples. It was shown that in addition to thermally induced carbonization at 550 °C, the SHV environment exhibits a catalytic effect on the carbonization process. The resulting materials are chemically inert (i.e. they contain a negligible amount of reactive functional groups) and possess low surface area and electronic conductivity which distinguishes them from carbon obtained from pyrolysis. Compared to the materials presented in the previous chapters on chemical modifications of hydrothermal carbon, this makes them ill-suited candidates for electronic applications like lithium ion batteries or electrocatalysts. However, htHTC derived materials could be interesting for applications that require chemical inertness but do not require specific electronic properties. The final section of this thesis therefore revisited the latex hard templating approach to synthesize carbon hollow spheres using htHTC. However, by using htHTC it was possible to carry out template removal in situ because the second heating step at 550 °C was above the polystyrene latex decomposition temperature. Preliminary tests showed that the CHS could be dispersed in an aqueous polystyrene latex without monomer penetrating into the hollow sphere voids. This leaves the stagnant air inside the CHS intact which in turn is promising for their application in heat and sound insulating coatings. Overall the work carried out in this thesis represents a noteworthy development in demonstrating the great potential of sustainable carbon materials. N2 - Das Ziel der vorgelegten Arbeit war es, mit Hilfe der Hydrothermalen Carbonisierung (HTC) eine Palette an verschiedenen Materialien herzustellen, deren physikalische und chemische Eigenschaften auf spezifische Anwendungen zugeschnitten werden können. Die Motivation hierfür stellt die Notwendigkeit, Alternativen zu Materialien zu finden, die auf fossilen Brennstoffen basieren. Dabei stellen vor allem nachhaltige Energien eine der größten Herausforderungen der Zukunft dar. HTC ist ein mildes, nachhaltiges Syntheseverfahren welches prinzipiell die Nutzung von biologischen Rohstoffen (z. B. landwirtschaftlichen Abfallprodukten) für die Herstellung von wertvollen, Kohlenstoff-basierten Materialien erlaubt. Es wurden zwei verschiedene Ansätze verwendet, um hydrothermalen Kohlenstoff zu modifizieren. Zum einen wurde HTC unter „normalen“ Bedingungen ausgeführt, d. h. bei 180 °C und einem Druck von etwa 10 bar. Der Zucker Glukose diente in allen Fällen als Kohlenstoff Vorläufer. Durch Zugabe von stickstoff und /oder schwefelhaltigen Additiven konnte dotierte Hydrothermalkohle hergestellt werden. Dotierte Kohlenstoffe sind bereits für ihre positiven Eigenschaften, wie verbesserte Leitfähigkeit oder erhöhte Stabilität, bekannt. Zusätzlich zu Stickstoff dotierter Hydrothermalkohle, die bereits von anderen Gruppen hergestellt werden konnte, wurde in dieser Arbeit zum ersten Mal Schwefel in Hydrothermalkohle eingebaut. Außerdem wurden verschiedene Ansätze verwendet, um Oberfläche und definierte Morphologie der dotierten Materialien zu erzeugen, welche wichtig für elektrochemische Anwendungen sind. Schwefel- und/oder stickstoffdotierte Kohlenstoff Nanohohlkugeln sowie Kohlenstoff Aerogele konnten hergestellt werden. Mit Hilfe von einem zusätzlichen Pyrolyseschritt (d. h. Erhitzen unter Schutzgas) konnte die Leitfähigkeit der Materialien hergestellt werden, die daraufhin als Nichtmetall-Katalysatoren für Wasserstoff-Brennstoffzellen getestet wurden. Im zweiten Ansatz wurde HTC unter extremen Bedingungen ausgeführt, d. h. bei 550 °C und einem Druck von ca. 50 bar, welches im Wasser Phasendiagram dem Bereich des Heißdampfes entspricht. Es konnte gezeigt werden, dass die so erhaltene Hydrothermalkohle ungewöhnliche Eigenschaften besitzt. So hat die Hochtemperatur-Hydrothermalkohle zwar einen hohen Kohlenstoffgehalt (mehr als 90 Massenprozent), enthält aber auch viele Wasserstoffatome und ist dadurch schlecht leitfähig. Da damit elektrochemische Anwendungen so gut wie ausgeschlossen sind, wurde die Hochtemperatur-Hydrothermalkohle für Anwendungen vorgesehen, welche chemische Stabilität aber keine Leitfähigkeit voraussetzen. So wurden beispielsweise Hochtemperatur-Kohlenstoff-Nanohohlkugeln synthetisiert, die großes Potential als schall- und wärmeisolierende Additive für Beschichtungen darstellen. Insgesamt konnten erfolgreich verschiedenste Materialien mit Hilfe von HTC hergestellt werden. Es ist zu erwarten, dass sie in Zukunft zu nachhaltigen Technologien und damit zu einem weiteren Schritt weg von fossilen Brennstoffen beitragen werden. KW - Hydrothermale Karbonisierung KW - Heteroatom-Dotierung KW - Aerogele KW - Hohlkugeln KW - Elektrokatalyse KW - Hydrothermal Carbonization KW - Heteroatom Doping KW - Aerogels KW - Hollow Spheres KW - Electrocatalysis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60120 ER - TY - THES A1 - Falco, Camillo T1 - Sustainable biomass-derived hydrothermal carbons for energy applications T1 - Nachhaltiger, Biomasse-basierter Hydrothermalkohlenstoff für Energieanwendungen N2 - The need to reduce humankind reliance on fossil fuels by exploiting sustainably the planet renewable resources is a major driving force determining the focus of modern material research. For this reason great interest is nowadays focused on finding alternatives to fossil fuels derived products/materials. For the short term the most promising substitute is undoubtedly biomass, since it is the only renewable and sustainable alternative to fossil fuels as carbon source. As a consequence efforts, aimed at finding new synthetic approaches to convert biomass and its derivatives into carbon-based materials, are constantly increasing. In this regard, hydrothermal carbonisation (HTC) has shown to be an effective means of conversion of biomass-derived precursors into functional carbon materials. However the attempts to convert raw biomass, in particular lignocellulosic one, directly into such products have certainly been rarer. Unlocking the direct use of these raw materials as carbon precursors would definitely be beneficial in terms of HTC sustainability. For this reason, in this thesis the HTC of carbohydrate and protein-rich biomass was systematically investigated, in order to obtain more insights on the potentials of this thermochemical processing technique in relation to the production of functional carbon materials from crude biomass. First a detailed investigation on the HTC conversion mechanism of lignocellulosic biomass and its single components (i.e. cellulose, lignin) was developed based on a comparison with glucose HTC, which was adopted as a reference model. In the glucose case it was demonstrated that varying the HTC temperature allowed tuning the chemical structure of the synthesised carbon materials from a highly cross-linked furan-based structure (T = 180oC) to a carbon framework composed of polyaromatic arene-like domains. When cellulose or lignocellulosic biomass was used as carbon precursor, the furan rich structure could not be isolated at any of the investigated processing conditions. These evidences were indicative of a different HTC conversion mechanism for cellulose, involving reactions that are commonly observed during pyrolytic processes. The evolution of glucose-derived HTC carbon chemical structure upon pyrolysis was also investigated. These studies revealed that upon heat treatment (Investigated temperatures 350 – 900 oC) the furan-based structure was progressively converted into highly curved aromatic pre-graphenic domains. This thermal degradation process was observed to produce an increasingly more hydrophobic surface and considerable microporosity within the HTC carbon structure. In order to introduce porosity in the HTC carbons derived from lignocellulosic biomass, KOH chemical activation was investigated as an HTC post-synthesis functionalisation step. These studies demonstrated that HTC carbons are excellent precursors for the production of highly microporous activated carbons (ACs) and that the porosity development upon KOH chemical activation is dependent on the chemical structure of the HTC carbon, tuned by employing different HTC temperatures. Preliminary testing of the ACs for CO2 capture or high pressure CH4 storage yielded very promising results, since the measured uptakes of both adsorbates (i.e. CO2 and CH4) were comparable to top-performing and commercially available adsorbents, usually employed for these end-applications. The combined use of HTC and KOH chemical activation was also employed to produce highly microporous N-doped ACs from microalgae. The hydrothermal treatment of the microalgae substrate was observed to cause the depletion of the protein and carbohydrate fractions and the near complete loss (i.e. 90%) of the microalgae N-content, as liquid hydrolysis/degradation products. The obtained carbonaceous product showed a predominantly aliphatic character indicating the presence of alkyl chains presumably derived from the lipid fractions. Addition of glucose to the initial reaction mixture was found out to be extremely beneficial, because it allowed the fixation of a higher N amount, in the algae derived HTC carbons (i.e.  60%), and the attainment of higher product yields (50%). Both positive effects were attributed to Maillard type cascade reactions taking place between the monosaccharides and the microalgae derived liquid hydrolysis/degradation products, which were in this way recovered from the liquid phase. KOH chemical activation of the microalgae/glucose mixture derived HTC carbons produced highly microporous N-doped carbons. Although the activation process led to a major reduction of the N-content, the retained N-amount in the ACs was still considerable. These features render these materials ideal candidates for supercapacitors electrodes, since they provide extremely high surface areas, for the formation of electric double-layer, coupled to abundant heteroatom doping (i.e. N and O) necessary to obtain a pseudocapacitance contribution. N2 - Die Notwendigkeit, die Abhängigkeit der Menschheit von fossilen Brennstoffen zu reduzieren ist die treibende Kraft hinter aktuellen Forschungsanstrengungen in den Materialwissenschaften. Folglich besteht heutzutage ein erhebliches Interesse daran Alternativen zu Materialien, die aus fossilen Resourcen gewonnen werden, zu finden. Kurzfristig ist zweifellos Biomasse die vielversprechendste Alternative, da sie aus heutiger Sicht die einzige nicht-fossile, nachhaltige und nachwachsende Kohlenstoffquelle ist. Konsequenterweise werden die Antrengungen neue Syntheseansätze zur Konvertierung von Biomasse und ihren Derivaten in kohlenstoffbasierten Materialien forwährend erhöht. In diesem Zusammenhang hat sich die Hydrothermalkarbonisierung (HTC) als sehr vielseitiges Werkzeug zur Konvertierung von Biomasse-basierten Ausgangsstoffen in funktionale Kohlenstoffmaterialien herausgestellt. Dennoch gibt es bisher wenige Ansätze um rohe Biomasse, genauer gesagt Lignicellulose, direkt in funktionale Materialien umzusetzen. Könnte der direkte Einsatz von roher Biomasse Verfahren wie der HTC zugänglich gemacht werden, würde dies die Nachhaltigkeit des Verfahrens immens steigern. Daher wurde in dieser Dissertation die Hydrothermalkarbonisierung von kohlenhydratreicher (d. h. Lignicelluse) und proteinreicher (d. h. Microalgae) Biomasse systematisch analysiert. Diese Untersuchung galt dem Ziel einen besseren Einblick in das Potential dieser thermochemischen Verarbeitungsmethode funktionale Kohlenstoffmaterialien aus unverarbeiteter Biomasse hervorzubringen zu gewinnen. Die hergestellten Materialien wurden mittels chemischer Aktivierung nachträglich weiter behandelt. Dieser zusätzliche Verarbeitungsschritt ermöglichte die Herstellung hochporöser aktiverter Kohlenstoffe (AC). Die aus Lignicellulose gewonnenen ACs zeigten exzellente Eigenschaften bei der Aufnahme von CO2 und der Hochdruckspeicherung von CH4 währen die aus Microalgae gewonnen Eigenschaften an den Tag legten (z. B. hohe Oberfläche und N-Dotierung), welche sie zu vielversprechenden Materialien für Superkondensatoren machen. Die in dieser Dissertation präsentierte Arbeit zeigte außergewöhnliche Fortschritte in Richtung der Anwendung von unbehandelter Biomasse als Ausgangsmaterial für die Produktion von funktionalen Kohlenstoffen. KW - Biomasse KW - Kohlenmaterialien KW - Grüne Chemie KW - Nachhaltigkeit KW - Enegieanwendungen KW - Biomass KW - Carbon materials KW - Green Chemistry KW - Sustainability KW - Energy Applications Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59785 ER - TY - THES A1 - Milke, Bettina T1 - Synthese von Metallnitrid- und Metalloxinitridnanopartikeln für energierelevante Anwendungen T1 - Synthesis of metal nitride and metal oxynitride nanoparticles for energy related applications N2 - Ein viel diskutiertes Thema unserer Zeit ist die Zukunft der Energiegewinnung und Speicherung. Dabei nimmt die Nanowissenschaft eine bedeutende Rolle ein; sie führt zu einer Effizienzsteigerung bei der Speicherung und Gewinnung durch bereits bekannte Materialien und durch neue Materialien. In diesem Zusammenhang ist die Chemie Wegbereiter für Nanomaterialien. Allerdings führen bisher die meisten bekannten Synthesen von Nanopartikeln zu undefinierten Partikeln. Eine einfache, kostengünstige und sichere Synthese würde die Möglichkeit einer breiten Anwendung und Skalierbarkeit bieten. In dieser Arbeit soll daher die Darstellung der einfachen Synthese von Mangannitrid-, Aluminiumnitrid-, Lithiummangansilicat-, Zirkonium-oxinitrid- und Mangancarbonatnanopartikel betrachtet werden. Dabei werden die sogenannte Harnstoff-Glas-Route als eine Festphasensynthese und die Solvothermalsynthese als typische Flüssigphasensynthese eingesetzt. Beide Synthesewege führen zu definierten Partikelgrößen und interessanten Morphologien und ermöglichen eine Einflussnahme auf die Produkte. Im Falle der Synthese der Mangannitridnanopartikel mithilfe der Harnstoff-Glas-Route führt diese zu Nanopartikeln mit Kern-Hülle-Struktur, deren Einsatz als Konversionsmaterial erstmalig vorgestellt wird. Mit dem Ziel einer leichteren Anwendung von Nanopartikeln wird eine einfache Beschichtung von Oberflächen mit Nanopartikeln mithilfe der Rotationsbeschichtung beschrieben. Es entstand ein Gemisch aus MnN0,43/MnO-Nanopartikeln, eingebettet in einem Kohlenstofffilm, dessen Untersuchung als Konversionsmaterial hohe spezifische Kapazitäten (811 mAh/g) zeigt, die die von dem konventionellen Anodenmaterial Graphit (372 mAh/g) übersteigt. Neben der Synthese des Anodenmaterials wurde ebenfalls die des Kathodenmaterials Li2MnSiO4-Nanopartikeln mithilfe der Harnstoff-Glas-Route vorgestellt. Mithilfe der Synthese von Zirkoniumoxinitridnanopartikeln Zr2ON2 kann eine einfache Einflussnahme auf das gewünschte Produkt durch die Variation derReaktionsbedingungen, wie Harnstoffmenge oder Reaktionstemperatur, bei der Harnstoff-Glas-Route demonstriert werden. Der Zusatz von kleinsten Mengen an Ammoniumchlorid vermeidet, dass sich Kohlenstoff im Endprodukt bildet und führt so zu gelben Zr2ON2-Nanopartikeln mit einer Größe d = 8 nm, die Halbleitereigen-schaften besitzen. Die Synthese von Aluminiumnitridnanopartikeln führt zu kristallinen Nanopartikeln, die in eine amorphe Matrix eingebettet sind. Die Solvothermalsynthese von Mangancarbonatnanopartikel lässt neue Morphologien in Form von Nanostäbchen entstehen, die zu schuppenartigen sphärischen Überstrukturen agglomeriert sind. N2 - The development of new methods toward alternative clean energy production and efficient energy storage is a hot topic nowadays. In this context nanoscience has an important role to find suitable ways of increasing the efficiency of storage and production of energy of already known materials and new materials. However, until now the most well-known syntheses of MnN0,43 and Zr2ON2 nanoparticles lead to undefined particles. A simple, cheap and safe synthesis would offer the possibility of broader applications and scalability. We herein present the so-called urea-glass route which is used as a sol-gel process. This synthetic route leads to well-defined particle sizes, novel particle morphologies and allows the tailoring of the desired products. In the case of the synthesis of manganese nitride nanoparticles (MnN0,43), nanoparticles with a core-shell structure are obtained, their use as conversion materials in batteries is first introduced. On the other hand, the formation of zirconium oxynitride nanoparticles (Zr2ON2) can be easily influenced by varying the reaction conditions such as the amount of urea or the reaction temperature. The addition of small amounts of salt prevents the formation of carbon in the final product, leading to yellow Zr2ON2 nanoparticles with a size of d = 8 nm which show semiconductor behavior. KW - Nitride KW - Oxinitride KW - Nano KW - Li-Batterien KW - Harnstoff-Glas-Route KW - Nitrides KW - Oxynitrides KW - Nano KW - Li-batteries KW - Urea-Glas-Route Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60008 ER - TY - THES A1 - Breitenstein, Michael T1 - Ortsaufgelöster Aufbau von DNA-Nanostrukturen auf Glasoberflächen T1 - Assembly of DNA nanostructures on glass surfaces N2 - Im Fokus dieser Arbeit stand der Aufbau einer auf DNA basierenden Nanostruktur. Der universelle Vier-Buchstaben-Code der DNA ermöglicht es, Bindungen auf molekularer Ebene zu adressieren. Die chemischen und physikalischen Eigenschaften der DNA prädestinieren dieses Makromolekül für den Einsatz und die Verwendung als Konstruktionselement zum Aufbau von Nanostrukturen. Das Ziel dieser Arbeit war das Aufspannen eines DNA-Stranges zwischen zwei Fixpunkten. Hierfür war es notwendig, eine Methode zu entwickeln, welche es ermöglicht, Funktionsmoleküle als Ankerelemente ortsaufgelöst auf eine Oberfläche zu deponieren. Das Deponieren dieser Moleküle sollte dabei im unteren Mikrometermaßstab erfolgen, um den Abmaßen der DNA und der angestrebten Nanostruktur gerecht zu werden. Das eigens für diese Aufgabe entwickelte Verfahren zum ortsaufgelösten Deponieren von Funktionsmolekülen nutzt das Bindungspaar Biotin-Neutravidin. Mit Hilfe eines Rasterkraftmikroskops (AFM) wurde eine zu einem „Stift“ umfunktionierte Rasterkraftmikroskopspitze so mit der zu deponierenden „Tinte“ beladen, dass das Absetzen von Neutravidin im unteren Mikrometermaßstab möglich war. Dieses Neutravidinmolekül übernahm die Funktion als Bindeglied zwischen der biotinylierten Glasoberfläche und dem eigentlichen Adressmolekül. Das somit generierte Neutravidin-Feld konnte dann mit einem biotinylierten Adressmolekül durch Inkubation funktionalisiert werden. Namensgebend für dieses Verfahren war die Möglichkeit, Neutravidin mehrmals zu deponieren und zu adressieren. Somit ließ sich sequenziell ein Mehrkomponenten-Feld aufbauen. Die Einschränkung, mit einem AFM nur eine Substanz deponieren zu können, wurde so umgangen. Ferner mußten Ankerelemente geschaffen werden, um die DNA an definierten Punkten immobilisieren zu können. Die Bearbeitung der DNA erfolgte mit molekularbiologischen Methoden und zielte darauf ab, einen DNA-Strang zu generieren, welcher an seinen beiden Enden komplementäre Adressequenzen enthält, um gezielt mit den oberflächenständigen Ankerelementen binden zu können. Entsprechend der Geometrie der mit dem AFM erzeugten Fixpunkte und den oligonukleotidvermittelten Adressen kommt es zur Ausbildung einer definierten DNA-Struktur. Mit Hilfe von fluoreszenzmikroskopischen Methoden wurde die aufgebaute DNA-Nanostruktur nachgewiesen. Der Nachweis der nanoskaligen Interaktion von DNA-bindenden Molekülen mit der generierten DNA-Struktur wurde durch die Bindung von PNA (peptide nucleic acid) an den DNA-Doppelstrang erbracht. Diese PNA-Bindung stellt ihrerseits ein funktionales Strukturelement im Nanometermaßstab dar und wird als Nanostrukturbaustein verstanden. N2 - The main aim of this work was the development of a DNA-based nanostructure. The universal four-letter code of DNA allows addressing bonds at the molecular level. The chemical and physical property of DNA makes this macromolecule an ideal candidate as a construction element for nanostructures. The aim of this work was to span a DNA strand between two fixed points. For this purpose it was necessary to develop a method which makes it possible to deposit functional molecules as anchoring elements with highly spatial resolution on a surface. These molecules should be immobilized on the lower micrometer scale to meet the requirements of the desired nanostructure. The method that has been developed for this task, which enables to deposit functional molecules, uses the binding pair biotin-neutravidin. Using the tip of an atomic force microscope (AFM), which can be uses like a pen, it was possible to deposit neutravidin on the lower micrometer scale. This neutravidin molecule is the linking element between the biotinylated glass surface and the actual address molecule. The thus generated neutravidin field could then be functionalized with a biotinylated molecule by incubation. The method has been published as sequential spotting method because it enables a sequential functionalization of neutravidin after it has been deposited. It was so possible to build up a multi-component array. The limitation of being able to deposit only one single substance with an AFM has been circumvented. It also was necessary to create anchor elements in order to immobilize the DNA at defined positions. The processing of the DNA was carried out using molecular biological methods and aimed at generating a DNA strand, which at both ends has a complementary sequence for binding to the surface bound anchor elements. The defined structure is a result of the geometry of the fixed points, generated by the AFM. Using fluorescence microscopy, the constructed DNA nanostructure was detected. The proof of the interaction of DNA-binding molecules with the DNA structure was carried out by the binding of PNA (peptide nucleic acid), which is capable of binding to double stranded DNA. The PNA and its DNA-interaction is a functional building block in the nanometer scale and can be regarded as a promising nanostructure. KW - Nanostruktur KW - DNA KW - Rasterkraftmikroskop KW - Fluoreszenzmikroskopie KW - Oberflächenfunktionalisierung KW - nanostructure KW - DNA KW - atomic force microscope KW - fluorescence microscopy KW - surface chemistry Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61857 ER - TY - THES A1 - Trukenbrod, Hans Arne T1 - Temporal and spatial aspects of eye-movement control : from reading to scanning T1 - Zeitliche und räumliche Aspekte der Blicksteuerung : vom Lesen zum Scannen N2 - Eye movements are a powerful tool to examine cognitive processes. However, in most paradigms little is known about the dynamics present in sequences of saccades and fixations. In particular, the control of fixation durations has been widely neglected in most tasks. As a notable exception, both spatial and temporal aspects of eye-movement control have been thoroughly investigated during reading. There, the scientific discourse was dominated by three controversies, (i), the role of oculomotor vs. cognitive processing on eye-movement control, (ii) the serial vs. parallel processing of words, and, (iii), the control of fixation durations. The main purpose of this thesis was to investigate eye movements in tasks that require sequences of fixations and saccades. While reading phenomena served as a starting point, we examined eye guidance in non-reading tasks with the aim to identify general principles of eye-movement control. In addition, the investigation of eye movements in non-reading tasks helped refine our knowledge about eye-movement control during reading. Our approach included the investigation of eye movements in non-reading experiments as well as the evaluation and development of computational models. I present three main results : First, oculomotor phenomena during reading can also be observed in non-reading tasks (Chapter 2 & 4). Oculomotor processes determine the fixation position within an object. The fixation position, in turn, modulates both the next saccade target and the current fixation duration. Second, predicitions of eye-movement models based on sequential attention shifts were falsified (Chapter 3). In fact, our results suggest that distributed processing of multiple objects forms the basis of eye-movement control. Third, fixation durations are under asymmetric control (Chapter 4). While increasing processing demands immediately prolong fixation durations, decreasing processing demands reduce fixation durations only with a temporal delay. We propose a computational model ICAT to account for asymmetric control. In this model, an autonomous timer initiates saccades after random time intervals independent of ongoing processing. However, processing demands that are higher than expected inhibit the execution of the next saccade and, thereby, prolong the current fixation. On the other hand, lower processing demands will not affect the duration before the next saccade is executed. Since the autonomous timer adjusts to expected processing demands from fixation to fixation, a decrease in processing demands may lead to a temporally delayed reduction of fixation durations. In an extended version of ICAT, we evaluated its performance while simulating both temporal and spatial aspects of eye-movement control. The eye-movement phenomena investigated in this thesis have now been observed in a number of different tasks, which suggests that they represent general principles of eye guidance. I propose that distributed processing of the visual input forms the basis of eye-movement control, while fixation durations are controlled by the principles outlined in ICAT. In addition, oculomotor control contributes considerably to the variability observed in eye movements. Interpretations for the relation between eye movements and cognition strongly benefit from a precise understanding of this interplay. N2 - Blickbewegungen stellen ein wichtiges Instrument dar, um kognitive Prozesse zu untersuchen. In den meisten Paradigmen ist allerdings wenig über die Entstehung von Sakkaden und Fixationen bekannt. Insbesondere die Kontrolle der Fixationsdauern wurde häufig außer acht gelassen. Eine wesentliche Ausnahme stellt die Leseforschung dar, in der sowohl zeitlichliche als auch räumliche Aspekte der Blickbewegungssteuerung im Detail betrachtet wurden. Dabei war der wissenschaftliche Diskurs durch drei Kontroversen gekennzeichnet, die untersuchten, (i), welchen Einfluss okulomotorische bzw. kognitive Prozesse auf die Blicksteuerung haben, (ii), ob Worte seriell oder parallel verarbeitet werden und, (iii), wie Fixationsdauern kontrolliert werden. Die vorliegende Arbeit zielt im wesentlichen darauf ab, die Dynamik von Fixationssequenzen zu erforschen. Ausgehend von den Erkenntnissen beim Lesen untersuchten wir Blickbewegungen in Nichtlese-Aufgaben, mit dem Ziel allgemeine Prinzipien der Blicksteuerung zu identifizieren. Zusätzlich versuchten wir mit Hilfe dieser Aufgaben, Erkenntnisse über Prozesse beim Lesen zu vertiefen. Unser Vorgehen war sowohl von der Durchführung von Experimenten als auch der Entwicklung und Evaluation computationaler Modelle geprägt. Die Hauptbefunde zeigten: Erstens, okulomotorische Phänomene des Lesens lassen sich in Suchaufgaben ohne Wortmaterial replizieren (Kapitel 2 & 4). Dabei bestimmen okulomotorische Prozesse die Fixationsposition innerhalb eines Objektes. Diese wiederum beeinflusst das nächste Sakkadenziel sowie die Fixationsdauer. Zweitens, wesentliche Vorhersagen von Modellen, in denen Blickbewegungen von seriellen Aufmerksamkeitsverschiebungen abhängen, konnten falsifiziert werden (Kapitel 3). Stattdessen legen unsere Erkenntnisse nahe, dass die Blicksteuerung von der parallelen Verarbeitung mehrerer Objekte abhängt. Drittens, Fixationsdauern werden asymmetrisch kontrolliert (Kapitel 4). Während hohe Verarbeitungsanforderungen Fixationsdauern unmittelbar verlängern können, führen niedrige Verarbeitungsanforderungen nur zeitlich verzögert zu einer Reduktion. Wir schlagen ein computationales Modell ICAT vor, um asymmetrische Kontrolle zu erklären. Grundlage des Modells ist ein autonomer Zeitgeber, der unabhängig von der momentanen Verarbeitung nach zufälligen Zeitintervallen Sakkaden initiiert. Unerwartet hohe Verarbeitungsanforderungen können die Initiierung der nächsten Sakkade hinauszögern, während unerwartet niedrige Verarbeitungsanforderungen den Beginn der nächsten Sakkade nicht verändern. Der Zeitgeber passt sich allerdings von Fixation zu Fixation neuen Verarbeitungsanforderungen an, so dass es zu einer zeitlich verzögerten Reduktion der Fixationsdauern kommen kann. In einer erweiterten Version des Modells überprüfen wir die Kompatibilität ICATs mit einer realistischen räumlichen Blicksteuerung. Die Ähnlichkeit von Blickbewegungsphänomenen über Aufgaben hinweg legt nahe, dass sie auf allgemeinen Prinzipien basieren. Grundlage der Blicksteuerung ist die verteilte Verarbeitung des visuellen Inputs, während die Kontrolle der Fixationsdauer auf den Prinzipien von ICAT beruht. Darüber hinaus tragen okulomotorische Phänomene wesentlich zur Variabilität der Blicksteuerung bei. Ein Verständnis dieses Zusammenspiels hilft entscheidend den Zusammenhang von Blickbewegungen und Kognitionen besser zu verstehen. KW - Blickbewegungen KW - Fixationssequenzen KW - Computationale Modellierung KW - Fixationdauern KW - Fixationspositionen KW - Eye movements KW - fixation sequences KW - computational modeling KW - fixation durations KW - fixation positions Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70206 ER - TY - JOUR A1 - Lederer, Markus ED - Kleinwächter, Kai T1 - Klimapolitik zwischen Kyoto und Cancún JF - Klimapolitik International N2 - In diesem einleitenden Beitrag des Themenschwerpunktes wird der Hintergrund der internationalen Klimaverhandlungen erläutert und die Ergebnisse des Kopenhagen-Akkords vorgestellt. Angesichts des Scheiterns der Kopenhagener Konferenz muss die zeitnahe Schließung eines rechtlich bindenden, globalen Klimaabkommens als unwahrscheinlich gelten. Die Klimapolitik wird zukünftig verstärkt auf nationalstaatlicher und transnationaler Ebene erfolgen. KW - Klimapolitik KW - Klima KW - Durban 2011 KW - Klimakonferenz KW - NGO KW - Entwicklungspolitik KW - climate policy KW - climate KW - Climate Change Conference KW - development policy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81364 SN - 1868-6222 SN - 1868-6230 SP - 83 EP - 92 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wilhelm, Jan Lorenz T1 - Wozu Evaluation? Organisationssysteme bewerten Stadtteilförderung mit Kalkül T1 - Evaluation and urban development : handling complexity and expectations N2 - In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen. N2 - The neighborhood development program “Social City” aims to discontinue the downward tendency of so-called disadvantaged neighborhoods by funding numerous projects. In the course of the program implementation, the method of evaluation – as a target-performance analysis – becomes more and more relevant. But whether something can be called a successful neighborhood management or a successful measure of integration strongly depends on its context and the point of view. For this reason evaluation research says that the effects of programs are usually only indicated unsatisfactorily. These observations lead to the research aim, to explain the function of evaluations for the constitution of development programs beyond usual arguments of effectiveness and efficiency. Using a system theoretical approach Wilhelm analyzed the explicit and implicit norms and observation schemes of a successful program implementation. The following theses on the role of evaluations in program implementations can be derived: a) Evaluations lay down the change in the distinctions of political intervention and facilitate communication about success,b) Evaluations manifest the differentiation between underprivileged and privileged neighborhoods in the program and help to legitimate it, c) evaluations actualize the funding programs’ ability to absorb insecurity and finally d) evaluations take the “illusion of control” inherent to every political strategy of intervention as a basis and thus contribute to its manifestation. T3 - Potsdamer Geographische Praxis - 2 KW - Evaluation KW - Städtebauförderung KW - Systemtheorie KW - Neue Kulturgeographie KW - Organisationslernen KW - Evaluationsfunktion KW - evaluation KW - system theory KW - urban development KW - human geography KW - learning organization KW - function of evaluation Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59833 SN - 978-3-86956-187-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Traeger, Juliane T1 - Ungesättigte Dithioetherliganden : selektive Extraktionsmittel für die Gewinnung von Palladium(II) aus Sekundärrohstoffen T1 - Unsaturated dithioether ligands : selective extractants for the recovery of Palladium(II) from secondary sources N2 - Die Entwicklung neuer Verfahren für die Rückführung von Palladium aus Altmaterialien, wie gebrauchten Autoabgaskatalysatoren, in den Stoffstromkreislauf ist sowohl aus ökologischer als auch ökonomischer Sicht erstrebenswert. In dieser Arbeit wurden neue Flüssig-Flüssig- und Fest-Flüssig-Extraktionsmittel entwickelt, mit denen Palladium(II) aus einer oxidierenden, salzsauren Laugungslösung, die neben Palladium auch Platin und Rhodium sowie zahlreiche unedle Metalle enthält, zurückgewonnen werden kann. Die neuen Extraktionsmittel ungesättigte monomere 1,2-Dithioether und oligomere Ligandenmischungen mit vicinalen Dithioether-Einheiten – sind im Gegensatz zu vielen in der Literatur aufgeführten Extraktionsmitteln hochselektiv. Aufgrund ihrer geometrischen und elektronischen Präorganisation bilden sie mit Palladium(II) stabile quadratisch-planare Chelatkomplexe. Für die Entwicklung des Flüssig-Flüssig-Extraktionsmittels wurde eine Reihe von ungesättigten 1,2-Dithioetherliganden dargestellt, welche auf einer starren 1,2-Dithioethen-Einheit, die in ein variierendes elektronenziehendes Grundgerüst eingebettet ist, basieren und polare Seitenketten besitzen. Neben der Bestimmung der Kristallstrukturen der Liganden und ihrer Palladiumdichlorid-Komplexe wurden die elektro- und photochemischen Eigenschaften, die Komplexstabilität und das Verhalten in Lösung untersucht. In Flüssig-Flüssig-Extraktionsuntersuchungen konnte gezeigt werden, dass einige der neuen Liganden industriell genutzten Extraktionsmitteln durch eine schnellere Einstellung des Extraktionsgleichgewichts überlegen sind. Anhand von Kriterien, die für eine industrielle Nutzbarkeit entscheidend sind, wie: guter Oxidationsbeständigkeit, einer hohen Extraktionsausbeute (auch bei hohen Salzsäurekonzentrationen der Speiselösung), schneller Extraktionskinetik und einer hohen Selektivität für Palladium(II) wurde aus der Reihe der sechs Liganden ein geeignetes Flüssig-Flüssig-Extraktionsmittel ausgewählt: 1,2-Bis(2-methoxyethylthio)benzen. Mit diesem wurde ein praxisnahes Flüssig-Flüssig-Extraktionssystem entwickelt. Nach der schrittweisen Adaption der wässrigen Phase von einer Modelllösung hin zu der oxidierenden, salzsauren Laugungslösung erfolgte die Auswahl eines geeigneten großtechnisch, einsetzbaren Lösemittels (1,2-Dichlorbenzen) und eines effizienten Reextraktionsmittels (0,5 M Thioharnstoff in 0,1 M HCl). Die hohe Palladium(II)-Selektivität dieses Flüssig-Flüssig-Extraktionssystems konnte verifiziert und seine Wiederverwendbarkeit und Praxistauglichkeit unter Beweis gestellt werden. Weiterhin wurde gezeigt, dass sich beim Kontakt mit oxidierenden Medien aus dem Dithioether 1,2-Bis(2-methoxyethylthio)benzen geringe Mengen des Thioethersulfoxids 1-(2-Methoxyethylsulfinyl)-2-(2-methoxyethylthio)benzen bilden. Dieses wird im sauren Milieu protoniert und beschleunigt die Extraktion wie ein Phasentransferkatalysator, ohne jedoch die Palladium(II)-Selektivität herabzusetzen. Die Kristallstruktur des Palladiumdichlorid-Komplexes des Tioethersulfoxids zeigt, dass der unprotonierte Ligand Palladium(II), analog zum Dithioether, über die chelatisierenden Schwefelatome koordiniert. Verschiedene Mischungen von Oligo(dithioether)-Liganden und der monomere Ligand 1,2-Bis(2-methoxyethylthio)benzen dienten als Extraktionsmittel für Fest-Flüssig-Extraktionsversuche mit SIRs (solvent impregnated resins) und wurden zu diesem Zweck auf hydrophilem Kieselgel und organophilem Amberlite® XAD 2 adsorbiert. Die Oligo(dithioether)-Liganden basieren auf 1,2-Dithiobenzen oder 1,2-Dithiomaleonitril-Einheiten, welche über Tris(oxyethylen)ethylen- oder Trimethylen-Brücken miteinander verknüpft sind. Mit Hilfe von Batch-Versuchen konnte gezeigt werden, dass sich strukturelle Unterschiede - wie die Art der chelatisierenden Einheit, die Art der verbrückenden Ketten und das Trägermaterial - auf die Extraktionsausbeuten, die Extraktionskinetik und die Beladungskapazität auswirken. Die kieselgelhaltigen SIRs stellen das Extraktionsgleichgewicht viel schneller ein als die Amberlite® XAD 2-haltigen. Jedoch bleiben die Extraktionsmittel auf Amberlite® XAD 2, im Gegensatz zu Kieselgel, dauerhaft haften. Im salzsauren Milieu sind die 1,2-Dithiobenzen-derivate besser als Extraktionsmittel geeignet als die 1,2-Dithiomaleonitrilderivate. In Säulenversuchen mit der oxidierenden, salzsauren Laugungslösung und wiederverwendbaren, mit 1,2-Dithiobenzenderivaten imprägnierten, Amberlite® XAD 2-haltigen SIRs zeigte sich, dass für die Realisierung hoher Beladungskapazitäten sehr geringe Pumpraten benötigt werden. Trotzdem konnte die gute Palladium(II)-Selektivität dieser Festphasenmaterialien demonstriert werden. Allerdings wurden in den Eluaten im Gegensatz zu den Eluaten, die aus Flüssig-Flüssig-Extraktion resultierten neben dem Palladium auch geringe Mengen an Platin, Aluminium, Eisen und Blei gefunden. N2 - The development of new processes for the recovery of palladium from recycling materials like spent automotive catalysts is of economic and ecologic interest. In this thesis new solvent and solid phase extractants have been designed, which are suitable for the recovery of palladium(II) from an oxidising hydrochloric leach liquor that does not only additionally contain platinum and rhodium but also a number of base metals. In contrast to many extractants described in the literature these new extractants – unsaturated monomeric dithioethers as well as oligomeric mixtures of ligands with vicinal dithioether units – are highly selective for palladium(II). Due to their geometric and electronic preorganisation they form stable square-planar chelate complexes with palladium(II). For the development of the solvent extractant a series of unsaturated dithioethers, which are based on a rigid 1,2-dithioethene unit that is imbedded in an electron-withdrawing backbone, with polar end-groups has been synthesised. In addition to the determination of the crystal structures of the ligands and their dichloridopalladium complexes, the electro- and photochemical properties, the complex stabilities and the behaviour in solution have been investigated. Solvent extraction experiments showed the superiority of some of our ligands over conventionally used extractants in terms of their very fast reaction rates. Considering criteria that are essential for industrial utilisation like: robustness towards oxidation, achieving of high extraction yields (even at a high hydrochloric acid content of the leach liquor), fast extraction kinetics and a high selectivity for palladium(II), 1,2-bis(2-methoxyethylthio)benzene was selected as the extractant of choice. Building on this a solvent extraction system close to industrial practice was devised. After stepwise adaption of the aqueous phase from a model solution to the oxidising hydrochloric leach liquor, the selection of a diluent suitable for commercial operations (1,2-dichlorobenzene) and of an efficient stripping agent (0.5 M thiourea in 0.1 M HCl) has been accomplished. The high selectivity of that solvent extraction system for palladium(II) could be verified and its reusability and suitability for practical application have been proven. Further it was shown that small amounts of the thioether sulfoxide 1-[(2-methoxyethyl)sulfanyl]-2-[(2-methoxyethyl)sulfinyl]benzene form when the dithioether ligand 1,2-bis(2-methoxyethylthio)benzene gets in contact with oxidising media. Under acidic conditions this thioether sulfoxide gets protonated and accelerates the extraction like a phase transfer catalyst; without decreasing the selectivity for palladium(II). The molecular structure of the corresponding dichloridopalladium complex reveals that the nonprotonated ligand coordinates palladium(II) in a similar manner to the dithioether via the chelating sulfur atoms. Mixtures of oligo(dithioether) ligands and the monomeric 1,2-bis(2-methoxyethylthio)benzene have been adsorbed on silica gel and amberlite® XAD 2. These SIRs (solvent impregnated resins) have been used for solid phase extraction experiments. The oligo(dithioether) ligands are based on 1,2- dithiobenzene or 1,2-dithiomaleonitrile units, which are connected via tris(oxyethylene)ethylene or trimethylene chains. With the help of batch experiments it could be shown how structural differences, like the chelating unit, the kind of linking chain and the type of supporting material, impact the extraction yield, kinetics and loading capacity. The SIRs containing silica gel establish the extraction equilibrium much faster than those containing amberlite® XAD 2. On the other hand, the extractants permanently remain on amberlite® XAD 2, in contrast to silica gel. In a hydrochloric medium 1,2-dithiobenzene derivatives are better extractants than 1,2-dithiomaleonitrile derivatives. In column experiments with the oxidising hydrochloric leach liquor and reusable SIRs based on 1,2-dithiobenzene derivatives impregnated into amberlite® XAD 2, it appeared that for the implementation of high loading capacities very low flow rates are required. The selectivity for palladium(II) of these solid phase extractants could be demonstrated, although the eluates, in contrast to the eluates gained from the solvent extraction experiments, contained not only palladium but also small amounts of platinum, aluminium, iron and lead. KW - Palladium KW - Schwefel-Ligand KW - Chelate KW - Ligandendesign KW - Flüssig-Flüssig-Extraktion KW - Fest-Flüssig-Extraktion KW - palladium KW - sulfur ligands KW - chelates KW - ligand design KW - solvent extraction KW - solid phase extraction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64753 ER - TY - INPR A1 - Blanchard, Gilles A1 - Mathé, Peter T1 - Discrepancy principle for statistical inverse problems with application to conjugate gradient iteration N2 - The authors discuss the use of the discrepancy principle for statistical inverse problems, when the underlying operator is of trace class. Under this assumption the discrepancy principle is well defined, however a plain use of it may occasionally fail and it will yield sub-optimal rates. Therefore, a modification of the discrepancy is introduced, which takes into account both of the above deficiencies. For a variety of linear regularization schemes as well as for conjugate gradient iteration this modification is shown to yield order optimal a priori error bounds under general smoothness assumptions. A posteriori error control is also possible, however at a sub-optimal rate, in general. This study uses and complements previous results for bounded deterministic noise. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 1 (2012) 7 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57117 ER - TY - THES A1 - Zieres, Gundo T1 - Change Management durch das Excellence-Modell im Gesundheitswesen : der MDK Rheinland-Pfalz als Referenzobjekt in der Gesundheitswirtschaft T1 - Change Management with the Excellence-Modell in health care : the MDK Rheinland-Pfalz as an object of reference in health economy N2 - Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können. N2 - The massive structural changes in our health care system, which already happened in the past few years and those, which are following, force companies to create the conditions for a continuous adapt to new circumstances. With the help of planned and controlled change processes they need to ensure their sustainability. Against this background, it is shown how the Excellence Model of the EFQM can be used as a tool for change processes and is suitable to define and evaluate goals of change. Reference object of the case study analysis, which covers a period of thirteen years, is the medical service of health insurance in Rhineland-Palatinate. In addition to the analysis and presentation of theoretical principles it is demonstrated with the help of a German health care organization, how the implementation in practice can be performed by using the EFQM model. The EFQM model can be used in each company, regardless of its classification. Therefore it is possible, to transfer the model in a structural way to any other organization. In the context of a model for management and quality control, it is demonstrated that the EFQM model can be used as a universal method, in case the management has the authority of industry-specific adaptation. On the way to organizational excellence, planning and forecasting techniques of strategic management (SWOT, scenario analysis, portfolio analysis) as well as the VRIO paradigm of resource-based view are used. Therewith the EFQM model is subjected to the stress test of the resource-strategic approach. It is shown that the EFQM model is a unique, difficult imitable, barely substituting, organizationally anchored and customer value-creating potential for success. The paper provides impulses and concrete suggestions that can lead to a high increase in knowledge for using the EFQM model and it shows how to successfully deal with quality management systems. KW - Management KW - Excellence KW - Qualität KW - Gesundheitswesen KW - Management KW - Excellence KW - Quality KW - Health Care Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61761 ER - TY - THES A1 - Röser, Claudia T1 - Charakterisierung der Serotonin-Rezeptoren in den Speicheldrüsen von Calliphora vicina T1 - Characterization of serotonin receptors in the salivary gland of Calliphora vicina N2 - Die Fähigkeit, mit anderen Zellen zu kommunizieren, ist eine grundlegende Eigenschaft aller lebenden Zellen und essentiell für die normale Funktionsweise vielzelliger Organismen. Die Speicheldrüsen der Schmeißfliege Calliphora vicina bilden ein ausgezeichnetes physiologisches Modellsystem um zelluläre Signaltransduktionsprozesse an einem intakten Organ zu untersuchen. Die Speichelsekretion wird dabei hormonell durch das biogene Amin Serotonin (5-Hydroxytryptamin; 5-HT) reguliert. 5-HT aktiviert in den sekretorischen Zellen der Drüsen über die Bindung an mindestens zwei membranständige G-Protein gekoppelte Rezeptoren (GPCR) zwei separate Signalwege, den IP3/Ca2+- und den cAMP-Signalweg. Zur Identifizierung und Charakterisierung der 5-HT-Rezeptoren in den Speicheldrüsen von Calliphora wurden unter Anwendung verschiedener Klonierungsstrategien zwei cDNAs (Cv5-ht2α und Cv5-ht7) isoliert, die große Ähnlichkeit zu 5-HT2- und 5-HT7-Rezeptoren aus Säugetieren aufweisen. Die Hydropathieprofile der abgeleiteten Aminosäuresequenzen postulieren die für GPCRs charakteristische heptahelikale Architektur. Alle Aminosäuremotive, die für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an G-Proteine essentiell sind, liegen konserviert vor. Interessanterweise wurde für den Cv5-HT7-Rezeptor eine zusätzliche hydrophobe Domäne im N Terminus vorhergesagt. Die Cv5-HT2α-mRNA liegt in zwei alternativ gespleißten Varianten vor. Mittels RT-PCR-Experimenten konnte die Expression beider Rezeptoren in Gehirn und Speicheldrüsen adulter Fliegen nachgewiesen werden. Ein Antiserum gegen den Cv5-HT7 Rezeptor markiert in den Speicheldrüsen die basolaterale Plasmamembran. Die Expression der Rezeptoren in einem heterologen System (HEK 293-Zellen) bestätigte diese als funktionelle 5-HT Rezeptoren. So führte die Stimulation mit Serotonin für den Cv5-HT2α zu einer dosis-abhängigen Erhöhung der intrazellulären Ca2+ Konzentration ([Ca2+]i, EC50 = 24 nM). In Cv5-HT7-exprimierenden Zellen löste 5-HT dosisabhängig (EC50 = 4,1 nM) einen Anstieg der intrazellulären cAMP Konzentration ([cAMP]i) aus. Für beide heterolog exprimierten Rezeptoren wurden pharmakologische Profile erstellt. Liganden, die eine Rezeptorsubtyp-spezifische Wirkung vermuten ließen, wurden daraufhin auf ihre Wirkung auf das transepitheliale Potential (TEP) intakter Speicheldrüsenpräparate getestet. Drei 5-HT-Rezeptoragonisten: AS 19, R-(+)-Lisurid und 5-Carboxamidotryptamin führten zu einer cAMP-abhängigen Positivierung des TEP durch eine selektive Aktivierung der 5 HT7-Rezeptoren. Eine selektive Aktivierung des Ca2+-Signalweges durch den Cv5-HT2 Rezeptor ist mit Hilfe von 5-Methoxytryptamin möglich. Dagegen konnte Clozapin im TEP als selektiver Cv5-HT7-Rezeptorantagonist bestätigt werden. Die Kombination eines molekularen Ansatzes mit physiologischen Messungen ermöglichte somit die Identifikation selektiver Liganden für 5-HT2- bzw. 5-HT7-Rezeptoren aus Calliphora vicina. Dies ermöglicht zukünftig eine separate Aktivierung der 5-HT-gesteuerten Signalwege und erleichtert dadurch die weitere Erforschung der intrazellulären Signalwege und ihrer Wechselwirkungen. N2 - Cellular communication is a fundamental property of living cells and essential for normal functioning of multicellular organisms. The salivary glands of the blowfly Calliphora vicina are a well established physiological model system to study cellular signaling in an intact organ. Fluid secretion in this gland is hormonally regulated by the biogenic amine serotonin (5-hydroxytryptamine, 5-HT). In the secretory cells, 5-HT causes a parallel activation of the InsP3/Ca2+- and the cAMP-signaling pathways through binding and stimulation of at least two G protein coupled receptors (GPCR). In order to characterize the respective 5-HT receptors on the secretory cells, we have cloned two cDNAs (Cv5-ht2α, Cv5-ht7) that share high similarity with mammalian 5-HT2 and 5-HT7 receptor classes. Analysis of the deduced amino acid sequences postulates the typical heptahelical architecture of GPCRs for both receptors. Sequence motifs that are essential for ligand binding, receptor activation and coupling to G-proteins are well conserved. Interestingly, a computer-based structural analysis of Cv5-HT7 predicts an additional eighth hydrophobic region in the N-terminus of the receptor. We also found an alternative splice variant of the Cv5-HT2α mRNA. Using RT-PCR experiments, transcripts of both receptor mRNAs could be detected in brain and salivary gland tissue. An antiserum raised against the Cv5 HT7 receptor stained the basolateral region of the salivary glands. Heterologous receptor expression in HEK 293 cells leads to a dose-dependent increase in the intracellular Ca2+-concentration ([Ca2+]i) for Cv5-HT2α (EC50 = 24 nM) and cAMP-concentration for Cv5-HT7 (EC50 = 4,1 nM) upon application of 5-HT. A pharmacological profile was established for both receptors. Ligands that appeared to act as specific ligands of either Cv5-HT2α or Cv5-HT7 in this approach, were then tested for their effect on the transepithelial potential (TEP) of intact blowfly salivary gland preparations. Three 5-HT receptor agonists: AS 19, R-(+)-lisuride and 5-carboxamidotryptamine showed a cAMP dependent positivation of the TEP, caused by a selective activation of the Cv5-HT7 receptor. 5-methoxytryptamine exclusively activates the Ca2+ pathway via Cv5-HT2α. Clozapine antagonizes the effects of 5-HT in blowfly salivary glands and was confirmed as a Cv5-HT7 antagonist. The combination of a molecular approach with physiological measurements enabled us to identify selective ligands for 5-HT2 and 5-HT7 receptors of Calliphora vicina. These results facilitate a selective activation of the intracellular signaling pathways activated by 5-HT and will facilitate future research on different aspects of intracellular signaling and crosstalk mechanisms. KW - Calliphora KW - GPCR KW - Serotonin KW - Rezeptor KW - zelluläre Signalübertragung KW - Calliphora KW - G-protein-coupled receptors KW - serotonin KW - cellular signalling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61486 ER - TY - JOUR A1 - Schründer-Lenzen, Agi A1 - Zimmermann, Matthias A1 - Görlich, Petra A1 - Horn-Conrad, Antje A1 - Geller, Katrin A1 - Eckardt, Barbara A1 - Hoffmann, Florian A1 - Pyanoe, Steffi A1 - Kampe, Heike A1 - Jäger, Sophie A1 - Reinhardt, Ragna T1 - Portal = Zwischen Freiheit und Verantwortung: Ethik in der Forschung BT - Das Potsdamer Universitätsmagazin N2 - Aus dem Inhalt: - Zwischen Freiheit und Verantwortung: Ethik in der Forschung - Die Grenzen der Grammatik - Ein Bild von einem Mann T3 - Portal: Das Potsdamer Universitätsmagazin - 02/2012 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440475 SN - 1618-6893 IS - 02/2012 ER - TY - JOUR A1 - Musil, Andreas A1 - Eckardt, Barbara A1 - Jäger, Sophie A1 - Zimmermann, Matthias A1 - Pohlenz, Philipp A1 - Mauermeister, Sylvi A1 - Büstrin, Klaus A1 - Rost, Sophia A1 - Horn-Conrad, Antje A1 - Görlich, Petra T1 - Portal = Zu Hause in der Fremde: Mobilität im Wissenschaftsbetrieb BT - Das Potsdamer Universitätsmagazin N2 - Aus dem Inhalt: - Zu Hause in der Fremde: Mobilität im Wissenschaftsbetrieb - Die Kunst des Hörens - Verführerisch bunt T3 - Portal: Das Potsdamer Universitätsmagazin - 04/2012 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440496 SN - 1618-6893 IS - 04/2012 ER - TY - JOUR A1 - D'Aprile, Iwan-Michelangelo A1 - Zimmermann, Matthias A1 - Jäger, Sophie A1 - Horn-Conrad, Antje A1 - Eckardt, Barbara A1 - Voigt, Juliane A1 - Görlich, Petra T1 - Portal = Friedrich der Große: Zwischen Legende und Wirklichkeit BT - Das Potsdamer Universitätsmagazin N2 - Aus dem Inhalt: - Friedrich der Große: Zwischen Legende und Wirklichkeit - Inseln im Büchermeer - Wenn das Universum beschleunigt expandiert T3 - Portal: Das Potsdamer Universitätsmagazin - 01/2012 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440464 SN - 1618-6893 IS - 01/2012 ER - TY - JOUR A1 - Günther, Oliver A1 - Görlich, Petra A1 - Hoffmann, Florian A1 - Zimmermann, Matthias A1 - Jäger, Sophie A1 - Weise, Aileen A1 - Wiehn, Tanja A1 - Eckardt, Barbara A1 - Rost, Sophia A1 - Klein, Armin A1 - Eulenfeld, Sophie T1 - Portal = Zwischen Hörsaal und Trainingsplatz: Studium und Leistungssport BT - Das Potsdamer Universitätsmagazin N2 - Aus dem Inhalt: - Zwischen Hörsaal und Trainingsplatz: Studium und Leistungssport - Studieren sans souci - Brisante Farbenlehre T3 - Portal: Das Potsdamer Universitätsmagazin - 03/2012 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440488 SN - 1618-6893 IS - 03/2012 ER - TY - GEN A1 - Krügel, André A1 - Vitu, Françoise A1 - Engbert, Ralf T1 - Fixation positions after skipping saccades BT - a single space makes a large difference T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - During reading, saccadic eye movements are generated to shift words into the center of the visual field for lexical processing. Recently, Krugel and Engbert (Vision Research 50:1532-1539, 2010) demonstrated that within-word fixation positions are largely shifted to the left after skipped words. However, explanations of the origin of this effect cannot be drawn from normal reading data alone. Here we show that the large effect of skipped words on the distribution of within-word fixation positions is primarily based on rather subtle differences in the low-level visual information acquired before saccades. Using arrangements of "x" letter strings, we reproduced the effect of skipped character strings in a highly controlled single-saccade task. Our results demonstrate that the effect of skipped words in reading is the signature of a general visuomotor phenomenon. Moreover, our findings extend beyond the scope of the widely accepted range-error model, which posits that within-word fixation positions in reading depend solely on the distances of target words. We expect that our results will provide critical boundary conditions for the development of visuomotor models of saccade planning during reading. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 856 KW - eye movements KW - reading KW - motor control KW - skipping Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432887 SN - 1866-8372 IS - 856 SP - 1556 EP - 1561 ER - TY - THES A1 - Haakh, Harald Richard T1 - Fluctuation-mediated interactions of atoms and surfaces on a mesoscopic scale T1 - Fluktuationsinduzierte Wechselwirkungen zwischen Atomen und Oberflächen auf mesoskopischen Skalen N2 - Thermal and quantum fluctuations of the electromagnetic near field of atoms and macroscopic bodies play a key role in quantum electrodynamics (QED), as in the Lamb shift. They lead, e.g., to atomic level shifts, dispersion interactions (Van der Waals-Casimir-Polder interactions), and state broadening (Purcell effect) because the field is subject to boundary conditions. Such effects can be observed with high precision on the mesoscopic scale which can be accessed in micro-electro-mechanical systems (MEMS) and solid-state-based magnetic microtraps for cold atoms (‘atom chips’). A quantum field theory of atoms (molecules) and photons is adapted to nonequilibrium situations. Atoms and photons are described as fully quantized while macroscopic bodies can be included in terms of classical reflection amplitudes, similar to the scattering approach of cavity QED. The formalism is applied to the study of nonequilibrium two-body potentials. We then investigate the impact of the material properties of metals on the electromagnetic surface noise, with applications to atomic trapping in atom-chip setups and quantum computing, and on the magnetic dipole contribution to the Van der Waals-Casimir-Polder potential in and out of thermal equilibrium. In both cases, the particular properties of superconductors are of high interest. Surface-mode contributions, which dominate the near-field fluctuations, are discussed in the context of the (partial) dynamic atomic dressing after a rapid change of a system parameter and in the Casimir interaction between two conducting plates, where nonequilibrium configurations can give rise to repulsion. N2 - Thermische und Quantenfluktuationen des elektromagnetischen Nahfelds von Atomen und makroskopischen Körpern spielen eine Schlüsselrolle in der Quantenelektrodynamik (QED), wie etwa beim Lamb-Shift. Sie führen z.B. zur Verschiebung atomarer Energieniveaus, Dispersionswechselwirkungen (Van der Waals-Casimir-Polder-Wechselwirkungen) und Zustandsverbreiterungen (Purcell-Effekt), da das Feld Randbedingungen unterliegt. Mikroelektromechanische Systeme (MEMS) und festkörperbasierte magnetische Fallen für kalte Atome (‘Atom-Chips’) ermöglichen den Zugang zu mesoskopischen Skalen, auf denen solche Effekte mit hoher Genauigkeit beobachtet werden können. Eine Quantenfeldtheorie für Atome (Moleküle) und Photonen wird an Nichtgleichgewichtssituationen angepasst. Atome und Photonen werden durch vollständig quantisierte Felder beschrieben, während die Beschreibung makroskopischer Körper, ähnlich wie im Streuformalismus (scattering approach) der Resonator-QED, durch klassische Streuamplituden erfolgt. In diesem Formalismus wird das Nichtgleich- gewichts-Zweiteilchenpotential diskutiert. Anschließend wird der Einfluss der Materialeigenschaften von normalen Metallen auf das elektromagnetische Oberflächenrauschen, das für magnetische Fallen für kalte Atome auf Atom-Chips und für Quantencomputer-Anwendungen von Bedeutung ist, sowie auf den Beitrag des magnetischen Dipolmoments zum Van der Waals-Casimir-Polder-Potential im thermisch- en Gleichgewicht und in Nichtgleichgewichtssituationen untersucht. In beiden Fällen sind die speziellen Eigenschaften von Supraleitern von besonderem Interesse. Beiträge von Oberflächenmoden, die die Feldfluktuationen im Nahfeld dominieren, werden im Kontext des (partiellen) dynamischen Dressing nach einer raschen Änderung eines Systemparameters sowie für die Casimir-Wechselwirkung zweier metallischer Platten diskutiert, zwischen denen in Nichtgleichgewichtssituationen Abstoßung auftreten kann. KW - Resonator Quantenelektrodynamik KW - Atom-Oberflächenwechselwirkung KW - Van der Waals Kräfte KW - Atom-Chips KW - Quantenfluktuationen KW - cavity quantum electrodynamics KW - atom-surface interaction KW - Van der Waals forces KW - atom chips KW - quantum fluctuations Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61819 ER - TY - GEN A1 - Hoppe, Sebastian A1 - Bier, Frank Fabian A1 - von Nickisch-Rosenegk, Markus T1 - Microarray-based method for screening of immunogenic proteins from bacteria T2 - Postprints der Universität Potsdam Mathematisch-Naturwissenschaftliche Reihe N2 - Background: Detection of immunogenic proteins remains an important task for life sciences as it nourishes the understanding of pathogenicity, illuminates new potential vaccine candidates and broadens the spectrum of biomarkers applicable in diagnostic tools. Traditionally, immunoscreenings of expression libraries via polyclonal sera on nitrocellulose membranes or screenings of whole proteome lysates in 2-D gel electrophoresis are performed. However, these methods feature some rather inconvenient disadvantages. Screening of expression libraries to expose novel antigens from bacteria often lead to an abundance of false positive signals owing to the high cross reactivity of polyclonal antibodies towards the proteins of the expression host. A method is presented that overcomes many disadvantages of the old procedures. Results: Four proteins that have previously been described as immunogenic have successfully been assessed immunogenic abilities with our method. One protein with no known immunogenic behaviour before suggested potential immunogenicity. We incorporated a fusion tag prior to our genes of interest and attached the expressed fusion proteins covalently on microarrays. This enhances the specific binding of the proteins compared to nitrocellulose. Thus, it helps to reduce the number of false positives significantly. It enables us to screen for immunogenic proteins in a shorter time, with more samples and statistical reliability. We validated our method by employing several known genes from Campylobacter jejuni NCTC 11168. Conclusions: The method presented offers a new approach for screening of bacterial expression libraries to illuminate novel proteins with immunogenic features. It could provide a powerful and attractive alternative to existing methods and help to detect and identify vaccine candidates, biomarkers and potential virulence-associated factors with immunogenic behaviour furthering the knowledge of virulence and pathogenicity of studied bacteria. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 726 KW - expression library KW - immunogenic protein KW - false positive signal KW - polyclonal seron KW - standard western blot Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429815 SN - 1866-8372 IS - 726 ER - TY - CHAP A1 - Gunnarsson, Logi A1 - Zimmermann, Andreas T1 - Aktuelle Fragen des Menschenrechtsschutzes : 1. Potsdamer Menschenrechtstag am 26. Oktober 2011 N2 - Aus Anlass der Neubesetzung des Menschenrechtszentrums mit den Direktoren Prof. Dr. Andreas Zimmermann, LL.M. (Harvard) und Prof. Dr. Logi Gunnarsson fand am 26.10.2011 der Potsdamer Menschenrechtstag unter der Themenstellung „Aktuelle Fragen des Menschenrechtsschutzes“ statt. Ganz im Sinne der interdisziplinären Ausrichtung des MenschenRechtsZentrums der Universität Potsdam beschäftigten sich die beiden Direktoren in ihren Einführungsvorträgen aus ihrer jeweiligen Disziplin heraus mit philosophischen und rechtlichen Problemstellungen der Menschenrechte und ihres Schutzes. Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60646 SN - 978-3-86956-196-7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Korn, Ulrike T1 - Der Einfluss unterschiedlich aggressiver Fusarium culmorum- und Fusarium graminearum-Isolate auf die Schadbildausprägung bei Winterweizen sowie die Möglichkeit der Befallskontrolle mit Mykorrhiza T1 - Impact of aggressiveness of Fusarium culmorum and Fusarium graminearum isolates on the degree of symptoms as well as the possibility to control Fusarium spp. with mycorrhiza N2 - Der Einfluss unterschiedlich aggressiver Fusarium culmorum- und F. graminearum-Isolate auf die Schadbildausprägung bei Winterweizen sowie die Möglichkeit der Befallskontrolle mit Mykorrhiza Die durch Pilzarten der Gattung Fusarium spp. hervorgerufene partielle Taubährigkeit ist ein ernstes Problem im weltweiten Weizenanbau. Eine für die Schaderreger günstige feuchte Witterung zum Zeitpunkt der Weizenblüte in Kombination mit befallsfördernden agrotechnischen Maßnahmen löst immer wieder Epidemien aus. Hauptsächlich verursacht durch F. culmorum und F. graminearum führt eine Erkrankung zu Ertrags- und Qualitätseinbußen sowie zu einer Belastung des Ernteguts mit Mykotoxinen, die bereits in niedrigen Konzentrationen toxisch auf den tierischen und menschlichen Organismus wirken. Die am häufigsten vorkommenden Fusarium-Toxine in Weizen sind Deoxynivalenol (DON) und Zearalenon (ZEA). Isolate von F. graminearum- und F. culmorum können in ihrem DON- und ZEA-Bildungsvermögen und ihrem Potential, Nekrosen zu verursachen, stark variieren. In Laborversuchen (in vitro) wurden F. graminearum- und F. culmorum-Isolate hinsichtlich dieser Eigenschaften (hier als Aggressivität bezeichnet) charakterisiert und anschließend wurde im Feldversuch überprüft, ob die in vitro-ermittelte Aggressivität die Schadbildausprägung bei Weizenpflanzen beeinflusst. Nur im ersten Versuchsjahr, das durch hohe Niederschläge gekennzeichnet war, konnte ein Einfluss der Aggressivität und einer zusätzlichen Beregnung im Feldversuch nachgewiesen werden. Die als hoch-aggressiv eingestuften Fusarium-Isolate reduzierten unter dem Einfluss der Beregnung den Ertrag und das Tausendkorngewicht. Die Beregnung führte zu einer Erhöhung des Pilzwachstums und der DON- und ZEA-Produktion. Ein extrem trockener Sommer verhinderte die Infektion der Weizenpflanzen durch die beimpften Fusarium-Isolate und ein anschließendes Pilzwachstum in den Ähren im zweiten Versuchsjahr. Um den Befall von Weizenpflanzen mit Fusarium spp. vorzubeugen, stehen verschiedene pflanzenbauliche Maßnahmen zur Verfügung. Eine Möglichkeit stellen in diesem Zusammenhang die symbiotischen Mykorrhizapilze (MP) dar. Die Pilze sind in der Lage, Pflanzen zu stärken und antagonistisch auf pilzliche Schaderreger zu wirken. Um zu überprüfen, ob MP dazu beitragen könnten, den Befall von Weizenpflanzen mit Fusarium spp. niedrig zu halten, wurden Weizenpflanzen mit MP und Fusarium spp. beimpft und die Auswirkungen der Interaktionen auf die Weizenpflanzen in einem Klimakammer- und einem Feldversuch getestet. In der Klimakammer wurde eine Reduzierung des Fusarium-Befalls nachgewiesen. Die mykorrhizierten Weizenpflanzen wiesen außerdem höhere Photosyntheseraten, höhere Sprosstrockenmassen und mehr Ähren im Vergleich zu den nicht-mykorrhizierten und mit Fusarium-beimpften Weizenpflanzen auf. Insgesamt wurde durch die Mykorrhizierung der negative Einfluss von Fusarium spp. kompensiert. Im Freiland konnte kein Einfluss der MP auf Fusarium spp. beobachtet werden. Im ersten Versuchsjahr führte das Beimpfen der Weizenpflanzen mit MP zu höheren Wurzel- und Sprosstrockenmassen sowie zu höheren Tausendkorngewichten im Vergleich zu den mit Fusarium spp.-beimpften Weizenpflanzen. Im zweiten Versuchsjahr konnte dieses Ergebnis nicht wiederholt werden. N2 - Impact of aggressiveness of Fusarium culmorum and Fusarium graminearum isolates on the degree of symptoms as well as the possibility to control Fusarium spp. with mycorrhiza Fusarium Head Blight (FHB) is a serious problem worldwide and is mainly caused by Fusarium (F). culmorum and F. graminearum. Humid weather conditions, especially at anthesis and agricultural measures forcing pathogen attack cause epidemics repeatedly. FHB leads to yield and quality losses and also to contamination of harvest with mycotoxins that are toxic to humans and animals already in low concentrations. The most frequently occurring Fusarium toxins in wheat are deoxynivalenol (DON) and zearalenone (ZEA). F. culmorum and F. graminearum isolates can differ in their potential to produce mycotoxins and to cause necrosis. Isolates of these two species were assigned to three different groups of aggressiveness on the basis of mycotoxin production and necrotic activity. Afterwards these isolates were inoculated on wheat in fields to ascertain their aggressiveness on the degree of symptoms. Only in the first year of the trial that was characterized by high precipitation amounts an influence of the aggressiveness and of an additional irrigation could be determined. Influenced by irrigation isolates of high aggressiveness reduced yield and 1000-kernel-weight. Besides, irrigation led to an increase of fungal growth and DON and ZEA production. An extremely dry summer in the second year of the trial prevented wheat infection by Fusarium isolates and subsequent colonization of the ears. Various agricultural measures are available to prevent Fusarium infection. The release of mycorrhizal fungi is one possibility. These fungi are able to strengthen plants and affect fungal pathogens antagonistically. Mycorrhizal fungi and Fusarium isolates were inoculated on wheat plants in climate chamber and fields to determine their potential for pest management. The impact of the interactions of these two organisms on wheat plants was analyzed. In climate chamber a reduction of Fusarium colonization was observed. Furthermore a higher rate of photosynthesis, a higher shoot dry weight and a higher number of ears were detected for the mycorrhizal plants compared to the non-mycorrhizal Fusarium inoculated plants. Altogether the negative effects of Fusarium spp. on the wheat plants were compensated by mycorrhizal colonization. In fields no influence of mycorrhizal colonization on Fusarium spp. could be determined. In the first year of the trial inoculation of wheat plants with mycorrhiza led to higher root and shoot dry weight as well as to higher 1000-kernel-weight in comparison to the wheat plants inoculated with Fusarium spp. These results could not be reproduced in the second year of the trial. KW - Fusarium KW - Aggressivität KW - Mykotoxine KW - Arbuskuläre Mykorrhiza KW - Weizen KW - Fusarium KW - aggressiveness KW - mycotoxins KW - arbuscular mycorrhiza KW - wheat Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62908 ER - TY - BOOK A1 - Becker, Basil A1 - Giese, Holger T1 - Cyber-physical systems with dynamic structure : towards modeling and verification of inductive invariants N2 - Cyber-physical systems achieve sophisticated system behavior exploring the tight interconnection of physical coupling present in classical engineering systems and information technology based coupling. A particular challenging case are systems where these cyber-physical systems are formed ad hoc according to the specific local topology, the available networking capabilities, and the goals and constraints of the subsystems captured by the information processing part. In this paper we present a formalism that permits to model the sketched class of cyber-physical systems. The ad hoc formation of tightly coupled subsystems of arbitrary size are specified using a UML-based graph transformation system approach. Differential equations are employed to define the resulting tightly coupled behavior. Together, both form hybrid graph transformation systems where the graph transformation rules define the discrete steps where the topology or modes may change, while the differential equations capture the continuous behavior in between such discrete changes. In addition, we demonstrate that automated analysis techniques known for timed graph transformation systems for inductive invariants can be extended to also cover the hybrid case for an expressive case of hybrid models where the formed tightly coupled subsystems are restricted to smaller local networks. N2 - Cyber-physical Systeme erzielen ihr ausgefeiltes Systemverhalten durch die enge Verschränkung von physikalischer Kopplung, wie sie in Systemen der klassichen Igenieurs-Disziplinen vorkommt, und der Kopplung durch Informationstechnologie. Eine besondere Herausforderung stellen in diesem Zusammenhang Systeme dar, die durch die spontane Vernetzung einzelner Cyber-Physical-Systeme entsprechend der lokalen, topologischen Gegebenheiten, verfügbarer Netzwerkfähigkeiten und der Anforderungen und Beschränkungen der Teilsysteme, die durch den informationsverabeitenden Teil vorgegeben sind, entstehen. In diesem Bericht stellen wir einen Formalismus vor, der die Modellierung der eingangs skizzierten Systeme erlaubt. Ein auf UML aufbauender Graph-Transformations-Ansatz wird genutzt, um die spontane Bildung eng kooperierender Teilsysteme beliebiger Größe zu spezifizieren. Differentialgleichungen beschreiben das kombinierte Verhalten auf physikalischer Ebene. In Kombination ergeben diese beiden Formalismen hybride Graph-Transformations-Systeme, in denen die Graph-Transformationen diskrete Schritte und die Differentialgleichungen das kontinuierliche, physikalische Verhalten des Systems beschreiben. Zusätzlich, präsentieren wir die Erweiterung einer automatischen Analysetechnik zur Verifikation induktiver Invarianten, die bereits für zeitbehaftete Systeme bekannt ist, auf den ausdrucksstärkeren Fall der hybriden Modelle. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 64 KW - Cyber-Physical-Systeme KW - Verifikation KW - Modellierung KW - hybride Graph-Transformations-Systeme KW - Cyber-physical-systems KW - verification KW - modeling KW - hybrid graph-transformation-systems Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62437 SN - 978-3-86956-217-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Albrecht, Alexander A1 - Naumann, Felix T1 - Understanding cryptic schemata in large extract-transform-load systems N2 - Extract-Transform-Load (ETL) tools are used for the creation, maintenance, and evolution of data warehouses, data marts, and operational data stores. ETL workflows populate those systems with data from various data sources by specifying and executing a DAG of transformations. Over time, hundreds of individual workflows evolve as new sources and new requirements are integrated into the system. The maintenance and evolution of large-scale ETL systems requires much time and manual effort. A key problem is to understand the meaning of unfamiliar attribute labels in source and target databases and ETL transformations. Hard-to-understand attribute labels lead to frustration and time spent to develop and understand ETL workflows. We present a schema decryption technique to support ETL developers in understanding cryptic schemata of sources, targets, and ETL transformations. For a given ETL system, our recommender-like approach leverages the large number of mapped attribute labels in existing ETL workflows to produce good and meaningful decryptions. In this way we are able to decrypt attribute labels consisting of a number of unfamiliar few-letter abbreviations, such as UNP_PEN_INT, which we can decrypt to UNPAID_PENALTY_INTEREST. We evaluate our schema decryption approach on three real-world repositories of ETL workflows and show that our approach is able to suggest high-quality decryptions for cryptic attribute labels in a given schema. N2 - Extract-Transform-Load (ETL) Tools werden häufig beim Erstellen, der Wartung und der Weiterentwicklung von Data Warehouses, Data Marts und operationalen Datenbanken verwendet. ETL Workflows befüllen diese Systeme mit Daten aus vielen unterschiedlichen Quellsystemen. Ein ETL Workflow besteht aus mehreren Transformationsschritten, die einen DAG-strukturierter Graphen bilden. Mit der Zeit entstehen hunderte individueller ETL Workflows, da neue Datenquellen integriert oder neue Anforderungen umgesetzt werden müssen. Die Wartung und Weiterentwicklung von großen ETL Systemen benötigt viel Zeit und manuelle Arbeit. Ein zentrales Problem ist dabei das Verständnis unbekannter Attributnamen in Quell- und Zieldatenbanken und ETL Transformationen. Schwer verständliche Attributnamen führen zu Frustration und hohen Zeitaufwänden bei der Entwicklung und dem Verständnis von ETL Workflows. Wir präsentieren eine Schema Decryption Technik, die ETL Entwicklern das Verständnis kryptischer Schemata in Quell- und Zieldatenbanken und ETL Transformationen erleichtert. Unser Ansatz berücksichtigt für ein gegebenes ETL System die Vielzahl verknüpfter Attributnamen in den existierenden ETL Workflows. So werden gute und aussagekräftige "Decryptions" gefunden und wir sind in der Lage Attributnamen, die aus unbekannten Abkürzungen bestehen, zu "decrypten". So wird z.B. für den Attributenamen UNP_PEN_INT als Decryption UNPAIN_PENALTY_INTEREST vorgeschlagen. Unser Schema Decryption Ansatz wurde für drei ETL-Repositories evaluiert und es zeigte sich, dass unser Ansatz qualitativ hochwertige Decryptions für kryptische Attributnamen vorschlägt. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 60 KW - Extract-Transform-Load (ETL) KW - Data Warehouse KW - Datenintegration KW - Extract-Transform-Load (ETL) KW - Data Warehouse KW - Data Integration Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61257 SN - 978-3-86956-201-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ohliger, Matthias T1 - Characterizing and measuring properties of continuous-variable quantum states T1 - Charakterisierung und Messung der Eigenschaften von Quantenzuständen mit kontinuierlichen Variablen N2 - We investigate properties of quantum mechanical systems in the light of quantum information theory. We put an emphasize on systems with infinite-dimensional Hilbert spaces, so-called continuous-variable systems'', which are needed to describe quantum optics beyond the single photon regime and other Bosonic quantum systems. We present methods to obtain a description of such systems from a series of measurements in an efficient manner and demonstrate the performance in realistic situations by means of numerical simulations. We consider both unconditional quantum state tomography, which is applicable to arbitrary systems, and tomography of matrix product states. The latter allows for the tomography of many-body systems because the necessary number of measurements scales merely polynomially with the particle number, compared to an exponential scaling in the generic case. We also present a method to realize such a tomography scheme for a system of ultra-cold atoms in optical lattices. Furthermore, we discuss in detail the possibilities and limitations of using continuous-variable systems for measurement-based quantum computing. We will see that the distinction between Gaussian and non-Gaussian quantum states and measurements plays an crucial role. We also provide an algorithm to solve the large and interesting class of naturally occurring Hamiltonians, namely frustration free ones, efficiently and use this insight to obtain a simple approximation method for slightly frustrated systems. To achieve this goals, we make use of, among various other techniques, the well developed theory of matrix product states, tensor networks, semi-definite programming, and matrix analysis. N2 - Die stürmische Entwicklung der Quanteninformationstheorie in den letzten Jahren brachte einen neuen Blickwinkel auf quantenmechanische Probleme. Insbesondere die fundamentale Eigenschaft der Verschränkung von Quantenzuständen spielt hierbei eine Schlüsselrolle. Einstein, Podolsky und Rosen haben 1935 versucht die Unvollständigkeit der Quantenmechanik zu demonstrieren, indem sie zeigten, dass sie keine lokale, realistische Therie ist und der Ausgang einer Messung an einem Ort von Messungen abhängen kann, die an beliebig weit entfernten Orten gemacht wurden. John Bell stellte 1964 eine, später nach ihm benannte, Ungleichung auf, die eine Grenze an mögliche Korrelationen von Messergebnissen in lokalen, realistischen Theorien gibt. Die Vorhersagen der Quatenmechanik verletzen diese Ungleichung, eine Tatsache, die 1981 von Alain Aspect und anderen auch experimentell bestätigt wurde. Solche nicht-lokalen Quantenzustände werden verschränkt'' genannt. In neuerer Zeit wurde Verschränkung nicht mehr nur als mysteriöse Eigenschaft der Quantenmechanik sondern auch als Resource für Aufgaben der Informationsverarbeitung gesehen. Ein Computer, der sich diese Eigenschaften der Quantenmechanik zu nutze macht, ein sogenannter Quantencomputer, würde es erlauben gewisse Aufgaben schnell zu lösen für die normale'' Computer zu lange brauchen. Das wichtigste Beispiel hierfür ist die Zerlegung von großen Zahlen in ihre Primfaktoren, für die Shor 1993 einen Quantenalgorithmus präsentierte. In dieser Arbeit haben wir uns mit den Eigenschaften von Quantensystemen, die durch sogenannte kontinuierliche Variablen beschrieben werden, beschäftigt. Diese sind nicht nur theoretisch sonder auch experimentell von besonderem Interesse, da sie quantenoptische Systeme beschreiben, die sich verhältnismäßig leicht im Labor präparieren, manipulieren und messen lassen. Wenn man eine vollständige Beschreibung eines Quantenzustandes erhalten will, braucht man, auf Grund der Heisenberg'schen Unschärferelation, mehrere Kopien von ihm an denen man dann Messungen durchführt. Wir haben eine Methode, compressed-sensing genannt, eingeführt um die Anzahl der nötigen Messungen substantiell zu reduzieren. Wir haben die theoretische Effizienz dieser Methode bewiesen und durch numerische Simulationen auch ihre Praktikabilität demonstriert. Desweiteren haben wir beschrieben, wie man compressed-sensing für die schon erwähnten optischen Systemen sowie für ultrakalte Atome experimentell realisieren kann. Ein zweites Hauptthema dieser Arbeit war messbasiertes Quantenrechnen. Das Standardmodell des Quantenrechnens basiert auf sogenannten Gattern, die eine genaue Kontrolle der Wechselwirkung zwischen den Bestandteilen des Quantencomputers erfordern. Messbasiertes Quantenrechnen hingegen kommt mit der Präparation eines geeigneten Quantenzustands, Resource genannt, gefolgt von einfachen Messungen auf diesem Zustand aus. Wir haben gezeigt, dass Systeme mit kontinuierlichen Variablen eine vorteilhafte Realisierung eines Quantencomputers in diesem Paradigma erlauben, es jedoch auch wichtige Beschränkungen gibt, die kompliziertere Zustandspräparationen und Messungen nötig machen. KW - Quantencomputer KW - Quantenoptik KW - Vielteilchentheorie KW - quantum computer KW - quantum optics KW - quantum many-body theory Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62924 ER - TY - THES A1 - Nehring, Benjamin T1 - Point processes in statistical mechanics : a cluster expansion approach T1 - Punktprozesse in der Statistischen Mechanik : ein Cluster Entwicklungszugang N2 - A point process is a mechanism, which realizes randomly locally finite point measures. One of the main results of this thesis is an existence theorem for a new class of point processes with a so called signed Levy pseudo measure L, which is an extension of the class of infinitely divisible point processes. The construction approach is a combination of the classical point process theory, as developed by Kerstan, Matthes and Mecke, with the method of cluster expansions from statistical mechanics. Here the starting point is a family of signed Radon measures, which defines on the one hand the Levy pseudo measure L, and on the other hand locally the point process. The relation between L and the process is the following: this point process solves the integral cluster equation determined by L. We show that the results from the classical theory of infinitely divisible point processes carry over in a natural way to the larger class of point processes with a signed Levy pseudo measure. In this way we obtain e.g. a criterium for simplicity and a characterization through the cluster equation, interpreted as an integration by parts formula, for such point processes. Our main result in chapter 3 is a representation theorem for the factorial moment measures of the above point processes. With its help we will identify the permanental respective determinantal point processes, which belong to the classes of Boson respective Fermion processes. As a by-product we obtain a representation of the (reduced) Palm kernels of infinitely divisible point processes. In chapter 4 we see how the existence theorem enables us to construct (infinitely extended) Gibbs, quantum-Bose and polymer processes. The so called polymer processes seem to be constructed here for the first time. In the last part of this thesis we prove that the family of cluster equations has certain stability properties with respect to the transformation of its solutions. At first this will be used to show how large the class of solutions of such equations is, and secondly to establish the cluster theorem of Kerstan, Matthes and Mecke in our setting. With its help we are able to enlarge the class of Polya processes to the so called branching Polya processes. The last sections of this work are about thinning and splitting of point processes. One main result is that the classes of Boson and Fermion processes remain closed under thinning. We use the results on thinning to identify a subclass of point processes with a signed Levy pseudo measure as doubly stochastic Poisson processes. We also pose the following question: Assume you observe a realization of a thinned point process. What is the distribution of deleted points? Surprisingly, the Papangelou kernel of the thinning, besides a constant factor, is given by the intensity measure of this conditional probability, called splitting kernel. N2 - Ein Punktprozess ist ein Mechanismus, der zufällig ein lokalendliches Punktmaß realisiert. Ein Hauptresultat dieser Arbeit ist ein Existenzsatz für eine sehr große Klasse von Punktprozessen mit einem signierten Levy Pseudomaß L. Diese Klasse ist eine Erweiterung der Klasse der unendlich teilbaren Punktprozesse. Die verwendete Methode der Konstruktion ist eine Verbindung der klassischen Punktprozesstheorie, wie sie von Kerstan, Matthes und Mecke ursprünglich entwickelt wurde, mit der sogenannten Methode der Cluster-Entwicklungen aus der statistischen Mechanik. Ausgangspunkt ist eine Familie von signierten Radonmaßen. Diese definiert einerseits das Levysche Pseudomaß L; andererseits wird mit deren Hilfe der Prozess lokal definiert. Der Zusammenhang zwischen L und dem Prozess ist so, dass der Prozess die durch L bestimmte Integralgleichung (genannt Clustergleichung) löst. Wir zeigen, dass sich die Resultate aus der klassischen Theorie der unendlich teilbaren Punktprozesse auf natürliche Weise auf die neue Klasse der Punktprozesse mit signiertem Levy Pseudomaß erweitern lassen. So erhalten wir z.B. ein Kriterium für die Einfachheit und eine Charackterisierung durch die Clustergleichung für jene Punktprozesse. Unser erstes Hauptresultat in Kapitel 3 zur Analyse der konstruierten Prozesse ist ein Darstellungssatz der faktoriellen Momentenmaße. Mit dessen Hilfe werden wir die permanentischen respektive determinantischen Punktprozesse, die in die Klasse der Bosonen respektive Fermionen Prozesse fallen, identifizieren. Als ein Nebenresultat erhalten wir eine Darstellung der (reduzierten) Palm Kerne von unendlich teilbaren Punktprozessen. Im Kapitel 4 konstruieren wir mit Hilfe unseres Existenzsatzes unendlich ausgedehnte Gibbsche Prozesse sowie Quanten-Bose und Polymer Prozesse. Unseres Wissens sind letztere bisher nicht konstruiert worden. Im letzten Teil der Arbeit zeigen wir, dass die Familie der Clustergleichungen gewisse Stabilitätseigenschaften gegenüber gewissen Transformationen ihrer Lösungen aufweist. Dies wird erstens verwendet, um zu verdeutlichen, wie groß die Klasse der Punktprozesslösungen einer solchen Gleichung ist. Zweitens wird damit der Ausschauerungssatz von Kerstan, Matthes und Mecke in unserer allgemeineren Situation gezeigt. Mit seiner Hilfe können wir die Klasse der Polyaschen Prozesse auf die der von uns genannten Polya Verzweigungsprozesse vergrößern. Der letzte Abschnitt der Arbeit beschäftigt sich mit dem Ausdünnen und dem Splitten von Punktprozessen. Wir beweisen, dass die Klassen der Bosonen und Fermionen Prozesse abgeschlossen unter Ausdünnung ist. Die Ergebnisse über das Ausdünnen verwenden wir, um eine Teilklasse der Punktprozesse mit signiertem Levy Pseudomaß als doppelt stochastische Poissonsche Prozesse zu identifizieren. Wir stellen uns auch die Frage: Angenommen wir beobachten eine Realisierung einer Ausdünnung eines Punktprozesses. Wie sieht die Verteilung der gelöschten Punktkonfiguration aus? Diese bedingte Verteilung nennen wir splitting Kern, und ein überraschendes Resultat ist, dass der Papangelou-Kern der Ausdünnung, abgesehen von einem konstanten Faktor, gegeben ist durch das Intensitätsmaß des splitting Kernes. KW - Gibbssche Punktprozesse KW - determinantische Punktprozesse KW - Cluster Entwicklung KW - Levy Maß KW - unendlich teilbare Punktprozesse KW - Gibbs point processes KW - Determinantal point processes KW - Cluster expansion KW - Levy measure KW - infinitely divisible point processes Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62682 ER - TY - THES A1 - Melchert, Christian T1 - Entwicklung multi-stimuli sensitiver Materialien auf der Basis von flüssigkristallinen Elastomeren T1 - Development of multi-stimuli sensitive materials based on liquid-crystalline elastomers N2 - Aufgrund der zunehmenden technischen Ansprüche der Gesellschaft sind sich aktiv bewegende Polymere in den Mittelpunkt aktueller Forschung gerückt. Diese spielen bei Anwen-dungen im Bereich von künstlichen Muskeln und Implantaten für die minimal invasive Chirurgie eine wichtige Rolle. Vor allem Formänderungs- und Formgedächtnispolymere stehen dabei im wissenschaftlichen Fokus. Während die kontaktlose Deformation einer permanenten Form in eine temporäre metastabile Form, charakteristisch für Formände-rungspolymere ist, kann bei Formgedächtnis-Materialien die temporäre Form, aufgrund der Ausbildung reversibler, temporärer Netzpunkte, fixiert werden. Ein Polymermaterial, das eine Kombination beider Funktionen aufweist würde zu einem Material führen welches kontaktlos in eine temporäre Form deformiert und in dieser fixiert werden kann. Zusätzlich würde aufgrund der kontaktlosen Deformation die Reversibilität dieser Funktion gewähr-leistet sein. Ein solches Material ist bislang noch nicht beschrieben worden. In dieser Arbeit wird untersucht, ob durch die Kopplung zweier separat schaltbarer, be-kannter Funktionen eine neue schaltbare Funktion erzielt werden kann. Daher wurden multi-stimuli sensitive Materialien entwickelt die eine Kopplung des Formänderungs- und des Formgedächtniseffektes aufweisen. Dazu wurden zwei Konzepte entwickelt, die sich hinsichtlich der Reihenfolge der verwendeten Stimuli unterscheiden. Im ersten Konzept wurden flüssigkristalline Elastomere basie-rend auf Azobenzenderivaten aufgebaut und hinsichtlich der Kombination des licht-induzierten Formänderungseffektes mit dem thermisch-induzierten Formgedächtniseffekt untersucht. Diese orientierten Netzwerke weisen oberhalb der Glasübergangstemperatur (Tg) eine kontaktlose Verformung (Biegung) durch Bestrahlung mit UV-Licht des geeigneten Wellenlängenbereichs auf, wodurch eine temporäre Form erhalten wurde. Hierbei spielt der Vernetzungsgrad eine entscheidende Rolle bezüglich der Ausprägung dieser Biegung. Eine fixierte, temporäre Form konnte durch gleichzeitiges Abkühlen des Materials unterhalb von Tg während der Bestrahlung mit UV-Licht erhalten werden. Nach erneutem Aufheizen über Tg konnte die Originalform wiederhergestellt werden. Dieser Vorgang konnte reversibel durchgeführt werden. Damit wurde gezeigt, dass eine neue schaltbare Funktion erzielt wurde, die auf der Kopplung des lichtinduzierten Formänderungs- mit dem thermisch-induzierten Formgedächtniseffekt basiert. Die Abstimmung der einzelnen Funktion wird in diesem Konzept über die Morphologie des Systems gewährleistet. Diese neue Funktion ermöglicht eine kontaktlose Deformation des Materials in eine temporäre Form, welche fixiert werden kann. Im zweiten Konzept wurde eine Kopplung des thermisch induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffekt angestrebt. Um dies zu realisieren wurden nematisch, flüssigkristalline Hauptkettenelastomere (NMC-LCE) entwickelt, die eine nied-rige Übergangstemperatur der nematischen in die isotrope Phase (TNI), als auch einen aus-geprägten thermisch induzierten Formänderungseffekt aufweisen. Zusätzlich wurde eine photosensitive Schicht aufgebaut, die Cinnamylidenessigsäuregruppen in der Seitenkette eines Polysiloxanrückgrates aufweist. Die Reversibilität der photoinduzierten [2+2]-Cycloaddition konnte für dieses photosensitive Polymer beobachtet werden, wodurch die-ses Polymersystem in der Lage ist reversible temporäre Netzpunkte, aufgrund der Bestrah-lung mit UV-Licht, auszubilden. Die kovalente Anbindung der photosensitiven Schicht an die Oberfläche des flüssigkristallinen Kerns wurde erfolgreich durchgeführt, wodurch ein Multi-Komponenten-System aufgebaut wurde. Die Kombination des thermisch-induzierten Formänderungs- mit dem licht-induzierten Formgedächtniseffektes wurde anhand dieses Systems untersucht. Während die Einzelkomponenten die erforderliche Funktion zeigten, ist hier noch Arbeit in der Abstimmung beider Strukturen zu leisten. Insbesondere die Variation der Schichtdicken beider Komponenten steht im Fokus zukünftiger Arbeiten. In dieser Arbeit wurde durch die Kopplung von zwei separat schaltbaren, bekannten Funktionen eine neue schaltbare Funktion erzielt. Dies setzt voraus, dass die Einzelkomponenten hinsichtlich einer Funktion schaltbar sind und in einem Material integriert werden können. Des Weiteren müssen die beiden Funktionen mit unterschiedlichen Stimuli geschaltet werden. Ein wichtiger Schritt bei der Kopplung der Funktionen, ist die Abstimmung der beiden Komponenten. Dies kann über die Variation der Morphologie oder der Struktur erzielt werden. Anhand der Vielzahl der vorhandenen stimuli-sensitiven Materialien sind verschiedene Kopplungsmöglichkeiten vorhanden. Demnach wird erwartet, dass auf diesem Gebiet weitere neue Funktionen erzielt werden können. N2 - Actively moving polymers are high scientific significance due to their ability to move actively in response to an external stimulus. Most notably shape-change and shape-memory polymers are in the focus of current research. Shape-changing polymers exhibit a non-contact deformation from a permanent into a temporary shape, which is just stable as long the material is exposed to an external stimulus. In contrast shape-memory polymers are capable of a fixed temporary shape due to the formation of additional temporary netpoints, while the deformation is proceed by applying mechanical stress. A polymeric material, which combines both functions would result into a material that possesses the advantages of the shape-change, as well as the shape-memory effect. In this work, the coupling of two known functions is investigated which results into a new switchable function. Therefore, two different concepts were developed requiring different material structures. For the first concept monodomain, smectic liquid-crystalline elastomers (LCE) containing azobenzene moieties were prepared and the coupling of the light-induced shape-change with the thermally-induced shape-memory effect was investigated. These oriented LCE's exhibit a non-contact deformation into a temporary shape, above the glass transition temperature (Tg), due to the irradiation with UV-light. The temporary shape could be fixed by cooling the material below Tg, while the irradiation with light was kept constant. The permanent shape could be recovered by additional heating above Tg. This process could be repeated several times. Therefore, a new switchable function was developed, which based on the coupling of the light-induced shape-change with the thermally induced shape-memory effect. The second concept required a multi-component system and the coupling of the thermally-induced shape-memory withe the light-induced shape-change effect was investigated. The multi component system consists of a LCE-core and a photosensitive layer. Nematic, main-chain elastomers were prepared, which possess of low transition temperatures and high actuation performances. The photosensitive layer consists of cinnamylidene acetic moieties, that were attached to a siloxane backbone, while the photoreversibility of the light-induced [2+2]-cycloaddition was shown. Furthermore, the photosensitive layer was covalently attached to the surface of the LCE-core. While both components showed their functionality, the coupling of the thermally-induced shape-change with the light-induced shape-memory effect was not successful up to now. The Adjustment of both components on each other has to be improved. Mainly the variation of the layer thickness of both structural components should be in the focus of future work. KW - multi-stimuli sensitive Materialien KW - aktive Polymere KW - Formgedächtnispolymere KW - [2+2]-Cycloaddition KW - flüssigkristalline Netzwerke KW - multi-stimuli sensitiv materials KW - active polymers KW - shape-memory polymers KW - [2+2]-cycloaddition KW - liquid-crystalline elastomers Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62866 ER - TY - THES A1 - Lembcke, Hanna-Maria T1 - Al-Qaida décapitée – the close of a chapter : eine exemplarische Analyse zum Metapherngebrauch in französischen und US-amerikanischen Pressetexten T1 - Al-Qaida décapitée – the close of a chapter : an exemplary analysis of the use of metaphors in French and US press texts N2 - Die Tötung Osama bin Ladens durch ein US-Sonderkommando Anfang Mai 2011, wenige Monate vor dem zehnten Jahrestag der verheerenden Terroranschläge vom 11. September, erhielt ein großes Maß an medialer Aufmerksamkeit. Der Tod des Mannes, der für die Terroranschläge verantwortlich gemacht wurde, führte zu einer erneuten Auseinandersetzung mit diesem Ereignis und dessen individuellen und globalen Folgen. Ausgangspunkt der Untersuchung dieses Pressediskurses ist die Annahme, dass eine solche gedankliche und sprachliche Auseinandersetzung, wie sie in der Presse kreiert und reflektiert wird, insbesondere auch von Metaphern bestimmt wird. Die Untersuchung stützt sich auf die Erkenntnisse kognitiver Metapherntheorien. Sie orientiert sich aber vor allem auch an jüngeren Untersuchungen innerhalb der Metaphernforschung, die speziell die sprachliche Dimension der Metapher wieder mehr in den Vordergrund rücken. Der Arbeit liegt daher ein multidimensionales Verständnis der Metapher zugrunde. Die kognitive Funktion der Metapher ermöglicht das Begreifbarmachen abstrakter bzw. unbekannter Phänomene. Metaphern können aber zugleich auch Indikatoren für die bewusste wie auch unbewusste Bewertung von Ereignissen, Handlungen und Personen sein. Die Untersuchung verfolgt einen vergleichenden Ansatz, der auf der Grundlage eines Arbeitskorpus aus US-amerikanischen und französischen Pressetexten zur Tötung bin Ladens den Metapherngebrauch in den beiden Ländern anhand ausgewählter Themenaspekte gegenüberstellt. Ziel der Untersuchung ist es, Gemeinsamkeiten und Unterschiede zwischen den beiden Landespressen zu identifizieren und diesbezüglich mögliche Interpretationen anzugeben. Dabei wird der Sprachgebrauch im Terror-Diskurs nach 9/11 einer kritischen Betrachtung unterzogen, um ein Bewusstsein für möglicherweise unbewusste metaphorische Konzeptualisierungen zu entwickeln. Im Vergleich des Metapherngebrauchs in der US-amerikanischen und französischen Presse werden deutliche Gemeinsamkeiten festgestellt. Die analysierten Unterschiede sind häufig sprachlich bedingt. Teilweise können sie aber auch im Hinblick auf Differenzen in der Positionierung der beiden Länder in Bezug auf bin Ladens Tötung interpretiert werden. Die weitgehende Übereinstimmung in den Metaphern lässt sich zum einen auf die Nähe der beiden Sprachen, zum anderen auf den ähnlichen politischen Hintergrund der beiden westlichen Länder zurückführen. Darüber hinaus wird die Hypothese aufgestellt, dass der verstärkt stattfindende internationale Austausch von Nachrichten, vor allem über Presseagenturen, auch zunehmend zu einer Globalisierung auf dem Gebiet der Metapher führt. N2 - The killing of Osama bin Laden by a US special task force in early May 2011, only a few months before the tenth anniversary of the devastating terror attacks of September 11, received a great deal of media attention. The death of the man who had been made responsible for the terror attacks triggered a fresh discussion of the events of 9/11 and both the individual and global consequences thereof. The starting point for an analysis of the relevant press discourse lies in the assumption that such a discussion taking place in language and thought, as it is created and reflected by the press, is to a great extent also determined by metaphors. The analysis draws on the insights of cognitive metaphor theories. It is, however, also primarily influenced by recent studies within metaphor research that aim to bring the linguistic dimension of metaphors back to the forefront. Therefore, a multidimensional understanding of metaphors forms the basis of the present study. The cognitive function of metaphors allows us to grasp abstract or unknown phenomena. Yet metaphors may further serve as indicators of conscious as well as unconscious evaluations of events, acts and people. The analysis follows a comparative approach: A study corpus of US and French press texts on the subject of bin Laden’s killing is analyzed with regard to selected aspects of the topic in order to compare the use of metaphors in the two countries. The aim of the study is to identify similarities and differences in the two countries’ press coverage and give possible interpretations for the results obtained. At the same time, the language used in the post-9/11 terror discourse is subjected to a critical examination in order to provide an understanding of metaphorical conceptualizations that are possibly unknown. In the comparison of metaphor use by the US and the French press clear similarities can be observed. The dissimilarities are often due to differences between the two languages. In some cases, however, they may be interpreted as the result of differences in the positions of the two countries on the subject of bin Laden’s killing. The extensive consistency in metaphor usage can be attributed to the closeness of the two languages as well as to the comparable political background of the two Western countries. Furthermore, it is hypothesized that the growing international exchange of news, especially via press agencies, may increasingly also lead to globalization in the field of metaphor. KW - Metapher KW - Presse KW - Frankreich KW - USA KW - Terrorismus KW - metaphor KW - press coverage KW - France KW - USA KW - terrorism Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61979 ER - TY - BOOK A1 - Bauckmann, Jana A1 - Abedjan, Ziawasch A1 - Leser, Ulf A1 - Müller, Heiko A1 - Naumann, Felix T1 - Covering or complete? : Discovering conditional inclusion dependencies N2 - Data dependencies, or integrity constraints, are used to improve the quality of a database schema, to optimize queries, and to ensure consistency in a database. In the last years conditional dependencies have been introduced to analyze and improve data quality. In short, a conditional dependency is a dependency with a limited scope defined by conditions over one or more attributes. Only the matching part of the instance must adhere to the dependency. In this paper we focus on conditional inclusion dependencies (CINDs). We generalize the definition of CINDs, distinguishing covering and completeness conditions. We present a new use case for such CINDs showing their value for solving complex data quality tasks. Further, we define quality measures for conditions inspired by precision and recall. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. Our algorithms choose not only the condition values but also the condition attributes automatically. Finally, we show that our approach efficiently provides meaningful and helpful results for our use case. N2 - Datenabhängigkeiten (wie zum Beispiel Integritätsbedingungen), werden verwendet, um die Qualität eines Datenbankschemas zu erhöhen, um Anfragen zu optimieren und um Konsistenz in einer Datenbank sicherzustellen. In den letzten Jahren wurden bedingte Abhängigkeiten (conditional dependencies) vorgestellt, die die Qualität von Daten analysieren und verbessern sollen. Eine bedingte Abhängigkeit ist eine Abhängigkeit mit begrenztem Gültigkeitsbereich, der über Bedingungen auf einem oder mehreren Attributen definiert wird. In diesem Bericht betrachten wir bedingte Inklusionsabhängigkeiten (conditional inclusion dependencies; CINDs). Wir generalisieren die Definition von CINDs anhand der Unterscheidung von überdeckenden (covering) und vollständigen (completeness) Bedingungen. Wir stellen einen Anwendungsfall für solche CINDs vor, der den Nutzen von CINDs bei der Lösung komplexer Datenqualitätsprobleme aufzeigt. Darüber hinaus definieren wir Qualitätsmaße für Bedingungen basierend auf Sensitivität und Genauigkeit. Wir stellen effiziente Algorithmen vor, die überdeckende und vollständige Bedingungen innerhalb vorgegebener Schwellwerte finden. Unsere Algorithmen wählen nicht nur die Werte der Bedingungen, sondern finden auch die Bedingungsattribute automatisch. Abschließend zeigen wir, dass unser Ansatz effizient sinnvolle und hilfreiche Ergebnisse für den vorgestellten Anwendungsfall liefert. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 62 KW - Datenabhängigkeiten KW - Bedingte Inklusionsabhängigkeiten KW - Erkennen von Meta-Daten KW - Linked Open Data KW - Link-Entdeckung KW - Assoziationsregeln KW - Data Dependency KW - Conditional Inclusion Dependency KW - Metadata Discovery KW - Linked Open Data KW - Link Discovery KW - Association Rule Mining Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62089 SN - 978-3-86956-212-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Appeltauer, Malte A1 - Hirschfeld, Robert T1 - The JCop language specification : Version 1.0, April 2012 N2 - Program behavior that relies on contextual information, such as physical location or network accessibility, is common in today's applications, yet its representation is not sufficiently supported by programming languages. With context-oriented programming (COP), such context-dependent behavioral variations can be explicitly modularized and dynamically activated. In general, COP could be used to manage any context-specific behavior. However, its contemporary realizations limit the control of dynamic adaptation. This, in turn, limits the interaction of COP's adaptation mechanisms with widely used architectures, such as event-based, mobile, and distributed programming. The JCop programming language extends Java with language constructs for context-oriented programming and additionally provides a domain-specific aspect language for declarative control over runtime adaptations. As a result, these redesigned implementations are more concise and better modularized than their counterparts using plain COP. JCop's main features have been described in our previous publications. However, a complete language specification has not been presented so far. This report presents the entire JCop language including the syntax and semantics of its new language constructs. N2 - Das Verhalten von modernen Software-Anwendungen benötigt häufig Informationen über den Kontext ihrer Ausführung, z.B. die geografische Position, die Tageszeit oder die aktuelle Netzwerkbandbreite. Dennoch bieten heutige Programmiersprachen nur wenig Unterstützung für die Repräsentation kontextspezifischen Verhaltens. Kontextorientiertes Programmieren ist ein Ansatz, der die explizite Modularisierung und Laufzeitaktivierung von kontextspezifischem Verhalten auf der Ebene von Programmiersprachkonstrukten ermöglicht. Die bisherigen Umsetzungen von kontextorientiertem Programmieren schränken jedoch die Kontrolle der Laufzeitaktivierungen solches kontextspezifischen Verhaltens ein. Daraus folgt eine Einschränkung der Anwendungsbereiche für kontextorientiertes Programmieren, unter anderem für solche Domänen, in denen Programme sehr häufig kontextabhängiges Verhalten bereitstellen, z.B. ereignisbasierte, mobile und dienstorientierte Systeme. Die Programmiersprache JCop erweitert Java um Sprachkonstrukte für kontextorientieres Programmieren und bietet zusätzlich eine domänenspezifische Aspektsprach an, mit deren Hilfe Laufzeitadaptionen deklarativ spezifiziert werden können. Die Kernkonzepte von JCop wurden bereits in mehrern Publikationen vorgestellt, dieser Bericht enthält nun eine umfassende Sprachspezifikation von JCop. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 59 KW - Programming Languages KW - Context-oriented Programming KW - Aspect-oriented Programming KW - Java KW - JCop KW - runtime adaptations Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60208 SN - 978-3-86956-193-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Herfurth, Christoph T1 - Einstufen-Synthese und Charakterisierung amphiphiler Sternpolymere als multifunktionale assoziative Verdicker T1 - One-step synthesis and characterisation of amphiphilic star polymers as multifunctional associative thickeners N2 - Typische assoziative Verdicker für wässrige Systeme basieren auf linearen, doppelt hydrophob endmodifizierten Poly(ethylenglykolen) (PEGs). Diese Polymere aggregieren aufgrund ihrer Struktur in wässriger Lösung und bilden ein Netzwerk aus verbrückten Polymer-Mizellen. Dabei kann ein Polymer-Molekül maximal zwei Mizellen miteinander verbinden. Bisher ist unklar, wie die Anzahl der Endgruppen eines verzweigten, mehrfach hydrophob endmodifizierten hydrophilen Polymers die Struktur und Dynamik solcher Netzwerke beeinflusst. Die Synthese verzweigter Polymere auf PEG-Basis erfolgt mittels lebender ionischer Polymerisation und ist experimentell aufwändig. Das Einführen hydrophober Endgruppen erfordert zusätzliche Synthese-Schritte. In dieser Arbeit wurden hydrophile Sternpolymere mit hydrophoben Endgruppen in einem Schritt hergestellt. Dazu wurde die Technik der radikalischen Polymerisation unter Kettenübertragung durch reversible Addition und anschließende Fragmentierung (reversible addition-fragmentation chain transfer, RAFT) genutzt. Die Synthese der Sternpolymere erfolgte von einem multifunktionalen Kern, der die R-Gruppe der RAFT-Kettenüberträger (chain transfer agents, CTAs) bildete. Die dazu benötigten CTAs wurden so konzipiert, dass mit ihrer Hilfe sowohl die Anzahl der Arme des Sternpolymers (von 2 bis 4), als auch die Länge der hydrophoben Endgruppe (C4, C12, C18) variiert werden konnte. Der große Vorteil der RAFT-Polymerisation ist, dass sie viele polare Monomere für die Synthese der hydrophilen Arme des Sternpolymers toleriert. In dieser Arbeit wurden als Modell-Monomere Oligo(ethylenglykol)methylether-acrylat (OEGA) und N,N-Dimethylacrylamid (DMA) eingesetzt. Beide Monomere bilden nicht-ionische hydrophile Polymere. Poly(OEGA) ist ein Kammpolymer, das auf PEG basiert. Poly(DMA) besitzt dagegen eine deutlich kompaktere Struktur. Die erhaltenen amphiphilen Sternpolymere wurden umfassend molekular charakterisiert. Die Molmassen wurden mit verschiedenen GPC-Systemen bestimmt und der Grad der Endgruppenfunktionalisierung wurde mittels UV/Vis- und 1H-NMR-Spektroskopie überprüft. Die Polymerisation von OEGA zeigt mit den CTAs einige Charakteristika der Polymerisation mit reversibler Deaktivierung (RDRP, auch „kontrollierte radikalische Polymerisation“), wird aber durch Kettenübertragung zum Monomer bzw. Polymer gestört. Diese Nebenreaktion ist auf die Struktur des Monomers als Oligoether zurückzuführen. Bei allen untersuchten Polymerisationen von DMA mit den multifunktionalen CTAs steigt die Molmasse linear mit dem Umsatz. Die erhaltenen Polymere zeigen durchweg monomodale und enge Molmassenverteilungen (PDI ≤ 1,2). Die Molmassen lassen sich in einem weiten Bereich von 25 kg/mol bis 150 kg/mol einstellen und die Endgruppen der Polymere bleiben zu 90 % erhalten. Während die Polymerisation von DMA sowohl mit den di- als auch den trifunktionalen CTAs innerhalb von 3 h zu quantitativen Umsätzen verläuft, wird der quantitative Umsatz des Monomers bei der Polymerisation mit tetrafunktionalen CTAs erst nach 4 h erreicht. Diese Verzögerung ist auf eine Retardierung in der Anfangsphase der Polymerisation zurückzuführen, die sich aus der besonderen Struktur der tetrafunktionalen CTAs erklärt. Auf dem System zur Polymerisation von DMA aufbauend ließen sich Gradienten-Block-Copolymere in Eintopfreaktionen herstellen. Dazu wurde nach Erreichen des quantitativen Umsatzes von DMA ein zweites Monomer zur Reaktionsmischung gegeben. Mit Ethylacrylat (EtA) wurden so lineare amphiphile symmetrische Triblock-Copolymere erhalten. Dabei wurde die Länge des hydrophoben Blocks durch unterschiedliche Mengen an EtA variiert. Mit N,N-Diethylacrylamid (DEA) wurden lineare symmetrische Triblock-Copolymere sowie 3-Arm Stern-Diblock-Copolymere hergestellt, die über einen thermisch schaltbaren zweiten Block verfügen. Bei diesen Polymeren lässt sich die Länge des hydrophoben Teils in situ durch Veränderung der Temperatur variieren. Das Verhalten der amphiphilen Sternpolymere in wässriger Lösung und in Mikroemulsion wurde im Rahmen einer Kooperation an der TU Berlin mit Hilfe von Kleinwinkel-Neutronenstreuung (SANS), dynamischer Lichtstreuung (DLS) und Rheologie untersucht. Die Polymere wirken durch Assoziation der hydrophoben Endgruppen als effektive Verdicker sowohl allein in wässriger Lösung als auch in Mikroemulsion. Die Struktur des gebildeten Netzwerks hängt dabei von der Konzentration des Polymers in der Lösung und der Länge der Endgruppe (Hydrophobie) ab. Die dynamischen Eigenschaften der Lösungen werden außerdem durch die Anzahl der Arme der Polymere bestimmt. N2 - Typically, associative thickeners for aqueous system consist of linear, hydrophobically α,ω-end-capped poly(ethylene glycols) (PEGs). Owing to their structure, these polymers aggregate in aqueous solution, forming a network of bridged micelles. Thus, one polymer molecule can link not more than two micelles. Until now it is unclear whether the structure and dynamics of such networks are influenced by the number of end groups of a branched multiply hydrophobically end-capped hydrophilic polymers. Branched PEG-based polymers are synthesized using the laborious and limited techniques of living ionic polymerization. Introducing hydrophobic end groups demands a multiple-step process. This work presents the one-step synthesis of hydrophilic star polymers with hydrophobic end groups, using reversible addition fragmentation chain transfer (RAFT) polymerization. This radical polymerization method is easy to use and tolerates a large number of polar monomers for the synthesis of the hydrophilic arms of the star polymers. The arms of the polymer were grown from a multifunctional core that formed the R-group of the chain transfer agents (CTAs). The CTAs where tailored to be able to vary the number of arms of the star polymers from 2 to 4 and to vary the length (and therefore the hydrophobicity) of the end groups (C4, C12, C18). Two different polar monomers where used as model monomers: Oligo(ethylene glycol)methyl ether acrylate (OEGA) and N,N-Dimethylacrylamide (DMA). Both monomers yield non-ionic hydrophilic polymers. While poly(OEGA) is a comb polymer based on PEG, poly(DMA) exhibits a more compact structure. The amphiphilic star polymers were characterized extensively. The molar masses were determined using GPC in various solvents and the degree of end functionalisation was monitored using 1H NMR and UV/Vis spectroscopy. The polymerization of OEGA shows some of the expected characteristics of reversible deactivation radical polymerization (RDRP). However, chain transfer to monomer and polymer is a prominent side reaction, limiting the use of this monomer for the fabrication of well-defined material. This reaction can be attributed to the structure of the monomer being an oligoether. For all examined polymerizations of DMA with the multifunctional CTAs the molar mass increased linearly with conversion. The molar mass distributions were monomodal and narrow (PDI ≤ 1.2). Expected values were reached for molar masses from 25 to 150 kg/mol and the end group functionality was about 90 % in all cases. While the polymerization of DMA using di- and trifunctional CTAs proceeded to quantitative conversion within 3 h, an initial retardation period of about 60 min was observed for the polymerization using tetrafunctional CTAs. This retardation was attributed to the peculiar molecular structure of these CTAs. Owing to the well-controlled features of the polymerization of DMA using the multifunctional CTAs, this system was used to obtain tapered block copolymers in a one-pot process. These structures were achieved by adding a second monomer to the reaction mixture after the quantitative conversion of DMA. Using ethyl acrylate (EtA), linear amphiphilic symmetrical triblock copolymers were synthesized. The length of the hydrophobic block was tailored by the addition of varying amounts of EtA. With N,N-Diethylacrylamide as a second monomer, linear symmetric triblock copolymers as well as 3-arm star diblock copolymers were obtained that contain a thermosensitve block. Altering the temperature of aqueous solutions of these polymers varies the length of the hydrophobic block in situ. At the TU Berlin, the behavior of the polymers was studied in aqueous solution as well as in microemulsion. The solutions were characterized by small angle neutron scattering (SANS), dynamic light scattering (DLS) and rheology. The end groups of the polymers aggregate, making the polymers efficient thickeners both in aqueous solution and in microemulsion. The structure of the formed network depends on the concentration of the polymer in solution and on the length of the end group. The dynamic properties of the solutions are governed additionally by the number of arms. KW - RAFT-Polymerisation KW - Sternpolymere KW - Synthese KW - Amphiphile Polymere KW - Assoziative Verdicker KW - RAFT polymerisation KW - star polymers KW - synthesis KW - amphiphilic polymers KW - associative thickeners Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62446 ER - TY - INPR A1 - Kiselev, Oleg M. A1 - Tarkhanov, Nikolai Nikolaevich T1 - Scattering of autoresonance trajectories upon a separatrix N2 - We study asymptotic properties of solutions to the primary resonance equation with large amplitude on a long time interval. T3 - Preprints des Instituts für Mathematik der Universität Potsdam - 1 (2012) 2 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56880 ER - TY - THES A1 - Miasnikova, Anna T1 - New hydrogel forming thermo-responsive block copolymers of increasing structural complexity T1 - Neue Hydrogel-bildende thermisch schaltbare Blockcopolymere von zunehmender struktureller Komplexität N2 - This work describes the synthesis and characterization of stimuli-responsive polymers made by reversible addition-fragmentation chain transfer (RAFT) polymerization and the investigation of their self-assembly into “smart” hydrogels. In particular the hydrogels were designed to swell at low temperature and could be reversibly switched to a collapsed hydrophobic state by rising the temperature. Starting from two constituents, a short permanently hydrophobic polystyrene (PS) block and a thermo-responsive poly(methoxy diethylene glycol acrylate) (PMDEGA) block, various gelation behaviors and switching temperatures were achieved. New RAFT agents bearing tert-butyl benzoate or benzoic acid groups, were developed for the synthesis of diblock, symmetrical triblock and 3-arm star block copolymers. Thus, specific end groups were attached to the polymers that facilitate efficient macromolecular characterization, e.g by routine 1H-NMR spectroscopy. Further, the carboxyl end-groups allowed functionalizing the various polymers by a fluorophore. Because reports on PMDEGA have been extremely rare, at first, the thermo-responsive behavior of the polymer was investigated and the influence of factors such as molar mass, nature of the end-groups, and architecture, was studied. The use of special RAFT agents enabled the design of polymer with specific hydrophobic and hydrophilic end-groups. Cloud points (CP) of the polymers proved to be sensitive to all molecular variables studied, namely molar mass, nature and number of the end-groups, up to relatively high molar masses. Thus, by changing molecular parameters, CPs of the PMDEGA could be easily adjusted within the physiological interesting range of 20 to 40°C. A second responsivity, namely to light, was added to the PMDEGA system via random copolymerization of MDEGA with a specifically designed photo-switchable azobenzene acrylate. The composition of the copolymers was varied in order to determine the optimal conditions for an isothermal cloud point variation triggered by light. Though reversible light-induced solubility changes were achieved, the differences between the cloud points before and after the irradiation were small. Remarkably, the response to light differed from common observations for azobenzene-based systems, as CPs decreased after UV-irradiation, i.e with increasing content of cis-azobenzene units. The viscosifying and gelling abilities of the various block copolymers made from PS and PMDEGA blocks were studied by rheology. Important differences were observed between diblock copolymers, containing one hydrophobic PS block only, the telechelic symmetrical triblock copolymers made of two associating PS termini, and the star block copolymers having three associating end blocks. Regardless of their hydrophilic block length, diblock copolymers PS11 PMDEGAn were freely flowing even at concentrations as high as 40 wt. %. In contrast, all studied symmetrical triblock copolymers PS8-PMDEGAn-PS8 formed gels at low temperatures and at concentrations as low as 3.5 wt. % at best. When heated, these gels underwent a gel-sol transition at intermediate temperatures, well below the cloud point where phase separation occurs. The gel-sol transition shifted to markedly higher transition temperatures with increasing length of the hydrophilic inner block. This effect increased also with the number of arms, and with the length of the hydrophobic end blocks. The mechanical properties of the gels were significantly altered at the cloud point and liquid-like dispersions were formed. These could be reversibly transformed into hydrogels by cooling. This thesis demonstrates that high molar mass PMDEGA is an easily accessible, presumably also biocompatible and at ambient temperature well water-soluble, non-ionic thermo-responsive polymer. PMDEGA can be easily molecularly engineered via the RAFT method, implementing defined end-groups, and producing different, also complex, architectures, such as amphiphilic triblock and star block copolymers, having an analogous structure to associative telechelics. With appropriate design, such amphiphilic copolymers give way to efficient, “smart” viscosifiers and gelators displaying tunable gelling and mechanical properties. N2 - Diese Arbeit befasst sich mit der RAFT-vermittelten Synthese und Charakterisierung von stimuli-empfindlichen Polymeren und ihrer Selbstorganisation zu „intelligenten” Hydrogelen. Die Hydrogele wurden so entwickelt, dass sie bei niedrigen Temperaturen stark quellen, bei Temperaturerhöhung jedoch reversibel in einem hydrophoben, kollabierten Zustand umgewandelt werden. Mit dem permanent hydrophoben Polystyrol (PS) und dem hydrophilen, thermisch schaltbaren Poly(methoxy-diethylen¬glycol-acrylat) (PMDEGA) als Bausteine, wurden unterschiedliche Gelierungsverhalten und thermische Übergangstemperaturen erreicht. Zur Synthese von Diblock-, symmetrischen Triblock- und dreiarmigen Sternblock-Copolymeren wurden neue funktionelle Kettenüberträger entwickelt. Diese gestatteten es, tert-butyl Benzoeester und Benzoesäure Endgruppen in die Polymere einzubauen, die einerseits eine effiziente Analyse mittels Routine 1H-NMR und darüber hinaus eine spätere Funktionalisierung der Endgruppen mit einer Fluoreszenzsonde ermöglichten. Da über PMDEGA kaum Daten vorlagen, wurde der Einfluss von Molekulargewicht, Endgruppen und Architektur auf das thermo-responsive Verhalten untersucht. Die speziellen Kettenüberträger ermöglichten es, gezielt hydrophobe wie hydrophile Endgruppen in die Polymere einzuführen. Die Trübungspunkte der wässerigen Lösungen von PMDEGA zeigten sich bis zu relativ hohen molaren Massen abhängig gegenüber allen untersuchten Variablen, nämlich dem Molekulargewicht, der Art und Zahl von Endgruppen. Durch Variation der diversen Parameter ließ sich die Schalttemperatur von PMDEGA in physiologisch relevanten Temperaturbereich von 20 bis 40 °C einstellen. Um die Polymere für einen zweiten Stimulus, nämlich Licht, empfindlich zu machen, wurden Azobenzol-funktionalisierte Acrylate synthetisiert und statistisch mit MDEGA copolymerisiert. Die Zusammensetzung der Polymeren wurde variiert und das isotherme Schalten der Löslichkeit durch Licht untersucht. Obwohl ein reversibles Schalten erreicht wurde, waren die Unterschiede zwischen den Trübungstemperaturen von UV-Licht bestrahlten und unbestrahlten Proben nur gering. Interessanterweise senkte die UV-Bestrahlung, d.h. ein erhöhter Gehalt von cis-Azobenzol-Gruppen, die Trübungstemperaturen herab. Dies ist genau umgekehrt als für azobenzolbasierten Systeme klassisch beschrieben. Die Gelbildung der verschiedenen Blockcopolymere von PS und PMDEGA wurde mittels Rheologie untersucht. Dabei traten deutliche Unterschiede auf, zwischen dem Gelierungsverhalten der Diblockcopolymere, die nur einen PS Block enthalten, dem der symmetrischen Triblockcopolymere, die zwei assoziative PS Endblöcken besitzen, und dem der Sternpolymere, die drei assoziative PS Blöcke aufweisen. Unabhängig von der Länge des hydrophilen Blockes, bilden Diblockcopolymere des Typs PS11-PMDEGAn keine Gele, sondern selbst bei hohen Konzentrationen von 40 Gew. % Lösungen. Im Gegensatz dazu bildeten die Triblockcopolymere des Typs PS8-PMDEGAn-PS8 Gele bei niedrigen Temperaturen, vereinzelt schon ab 3.5 wt. %. Mit steigender Temperatur, tritt bereits unterhalb des Trübungspunktes für diese Systeme ein Gel-Sol Übergang auf. Der Gel-Sol Übergang bewegt sich zu höheren Temperaturen mit steigende Länge des hydrophilen inneren Blocks. Dieser Trend verstärkt sich mit zunehmender Anzahl von Endblöcken und deren Länge. An der Trübungstemperatur veränderten sich die mechanischen Eigenschaften aller Gele signifikant und die gebildeten flüssigen Dispersionen ließen sich reversibel beim Abkühlen wieder zu Gel schalten. Diese Arbeit, zeigt dass PMDEGA ein bei niedrigen Temperaturen gut wasserlösliches, nicht-ionisches, thermisch-schaltbares und wahrscheinlich biokompatibles Polymer ist. PMDEGA liest sich einfach mittels den RAFT-Verfahren molekular maßschneiden, mit spezifischen Endgruppen und komplexen Polymerarchitekturen. Solche amphiphilen Triblock- und Sternblock-Copolymeren hoher Molmasse, wirken als assoziative Telechele. Daher eigenen sich bei entsprechendem Design diese amphiphilen Blockcopolymere als effiziente Verdicker und Gelbildner mit einstellbaren mechanischen und thermischen Eigenschaften. KW - Blockcopolymere KW - Selbstorganisation KW - thermisch schaltbar KW - LCST KW - RAFT KW - block copolymers KW - self-assembly KW - thermoresponsive KW - LCST KW - RAFT Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59953 ER -