Refine
Has Fulltext
- yes (595) (remove)
Year of publication
- 2011 (595) (remove)
Document Type
- Article (282)
- Doctoral Thesis (110)
- Postprint (67)
- Monograph/Edited Volume (60)
- Review (23)
- Master's Thesis (15)
- Part of Periodical (13)
- Working Paper (7)
- Part of a Book (6)
- Habilitation Thesis (3)
Language
- German (419)
- English (161)
- Multiple languages (8)
- Russian (5)
- French (2)
Keywords
- Bürgerschaft (16)
- Deutschland (16)
- Integration (16)
- Migration (16)
- Afghanistan (15)
- Germany (15)
- International Politics (15)
- Internationale Politik (15)
- Politische Theorie (15)
- Friedens- und Konfliktforschung (14)
Institute
- MenschenRechtsZentrum (70)
- WeltTrends e.V. Potsdam (61)
- Institut für Slavistik (49)
- Wirtschaftswissenschaften (49)
- Institut für Romanistik (33)
- Institut für Jüdische Studien und Religionswissenschaft (32)
- Vereinigung für Jüdische Studien e. V. (32)
- Extern (30)
- Institut für Physik und Astronomie (23)
- Institut für Biochemie und Biologie (22)
Alte These – neuer Aufguss
(2011)
Warten auf Godot
(2011)
„It’s the Strategy, Stupid!“
(2011)
Inhalt: 1. Werte und Selbstverständnis behutsam erneuern Globalisierung Demografischer Wandel Klimawandel 2. Langfristig ökonomischen Wohlstand sichern Bildung Forschung und Entwicklung Außenwirtschaft 3. Plädoyer für eine neue außenpolitische Kultur : Deutsche Interessen – Ein Anachronismus? Status quo: Interessendefinition im Hinterzimmer Interessen klar definieren und erfolgreich durchsetzen Entscheidungsmatrix für Auslandseinsätze Evaluierung des Nutzens Evaluierung der Kosten Ableiten der Entscheidung Und die Moral? – Aber sicher! Der Tönissteiner Kreis
Die neuen Anforderungen an Schulleitungen im Zuge gesellschaftlicher, schulpolitischer und schulinterner Entwicklungen sind erheblich (Huber, 2008). Diese in der Literatur breit geteilte Einschätzung schlägt sich bislang nicht ausreichend in Forschungsaktivitäten zur Gesundheit schulischer Führungskräfte nieder – im Unterschied zu der ausgiebigen Forschung zur Lehrergesundheit, die für die Lehrer durchgängig eine kritische Gesundheitslage feststellt. Besondere Aufmerksamkeit erzielte dabei die Potsdamer Lehrerstudie (Schaarschmidt, 2004). Sie belegte unter anderem auch die Einflussmöglichkeiten der Schulleitung auf die Lehrergesundheit. Die vorliegende Arbeit verfolgt zwei Ziele: Erstens wird die aktuelle Schulleitungsforschung um empirische Daten zur gesundheitlichen Situation von n = 484 Schulleitungen aus Brandenburg und Baden-Württemberg ergänzt. Zweitens wird die Bedeutung der Schulleitung für die Lehrergesundheit näher untersucht, indem empirische Daten aus Führungsfeedbackverfahren mit n = 12 Schulleitungen und n = 332 Lehrern in Baden-Württemberg und Hessen herangezogen werden. Das diagnostische Verfahren AVEM (“Arbeitsbezogenes Verhaltens- und Erlebensmuster“, Schaarschmidt & Fischer, 1996/2003) dient als methodische Grundlage. Es erhebt Selbsteinschätzungen zum arbeitsbezogenen Verhalten und Erleben und weist auf mögliche Risiken im Sinne psychischer oder psychosomatischer Gefährdung hin. Das Instrument erfasst mit 66 Items 11 Dimensionen (z.B. Distanzierungsfähigkeit). Auf diese Weise ist es möglich, die befragte Person einem von vier arbeitsbezogenen Verhaltens- und Erlebensmustern zuzuordnen: Muster G (Gesundheitsideal), Muster S (Schonungstendenz gegenüber beruflichen Anforderungen), Risikomuster A (überhöhtes Engagement), Risikomuster B (Resignation). Zudem werden Fragen zu schulischer Führung eingesetzt, die sich aus vorhandenen Fragebögen speisen. Mit Hilfe einer exploratorischen Faktorenanalyse können sechs Faktoren identifiziert werden: Persönliche emotionale Wertschätzung und Fürsorge, optimistische Zukunftsorientierung, konstruktives Management des Schulbetriebs, Förderung von Weiterbildung und pädagogischem Diskurs, Präsenz/Ansprechbarkeit und Partizipationsorientierung. Zu der ersten Fragestellung zeigt sich für die befragten Schulleitungen im Mittel ein gesundheitlich recht positives Bild – gerade im Kontrast zu den befragten Lehrern. Für die befragten Schulleitungen wird eine signifikant günstigere AVEM-Musterkonstellation festgestellt: Der Anteil des Musters G ist bei den Schulleitungen deutlich höher, der Anteil des Musters B deutlich niedriger und der Anteil des Musters A in etwa gleich groß. Die AVEM-Ergebnisse schlagen sich bei den befragten Schulleitungen in unmittelbaren Gesundheitsindikatoren nieder. Für bestimmte Untergruppen herrscht allerdings ein gesundheitlich vergleichsweise kritisches Bild vor, nämlich tendenziell für Schulleitungen in Brandenburg, für weibliche Schulleitungen und Schulleitungen an Grund- und Förderschulen. Eine hohe Unterrichtsverpflichtung ist mit einem größeren Anteil an Risikomustern verbunden. Ein hohes Maß an erlebter Autonomie – insbesondere im sozial-interaktiven Bereich mit den Lehrern (d.h. bei Auswahl, Einstellung und Beurteilung von Lehrern sowie bei der innerschulischen Arbeitsorganisation und kollegialen Zusammenarbeit) – geht dagegen mit jeweils günstigeren AVEM-Musterkonstellationen einher. Zur Beantwortung der zweiten Fragestellung wird eine methodisch anspruchsvolle Mehrebenenanalyse durchgeführt, die die hierarchische Anordnung der Daten angemessen behandelt. Für die wahrgenommene soziale Unterstützung durch die Schulleitung wird dabei eine negative Beziehung zur subjektiven Bedeutsamkeit der Arbeit und der Verausgabungsbereitschaft der befragten Lehrer gefunden. Hingegen ergibt sich ein positiver Zusammenhang zwischen der erlebten Förderung von Weiterbildung und pädagogischem Diskurs und dem Erfolgserleben der befragten Lehrer. Ebenso hängt die wahrgenommene Führung durch die Schulleitung in ihrer Gesamtheit in positiver Weise mit der Lebenszufriedenheit der befragten Lehrer zusammen. Es sei betont, dass ausschließlich Effekte nachgewiesen werden, die auf die individuelle Ebene der Lehrer zurückgehen, d.h. es scheint – was den Zusammenhang zwischen erlebter Führung und Lehrergesundheit angeht – auf die subjektive Wahrnehmung des Führungsverhaltens der Schulleitung durch den/die jeweilige(n) Lehrer/in anzukommen. Eine erste theoretische Skizze zu wesentlichen Determinanten von Schulleitungsgesundheit wird vorgeschlagen. Empfehlungen für die Schulleitungspraxis umfassen die Reduzierung der Unterrichtsverpflichtung, die Erweiterung von Autonomie im sozial-interaktiven Bereich mit den Lehrern und die systematische Etablierung von Mitarbeitergesprächen zur Ausgestaltung individueller Führungsbeziehungen zwischen Schulleitungen und Lehrern.
Cognitive psychology is traditionally interested in the interaction of perception, cognition, and behavioral control. Investigating eye movements in reading constitutes a field of research in which the processes and interactions of these subsystems can be studied in a well-defined environment. Thereby, the following questions are pursued: How much information is visually perceived during a fixation, how is processing achieved and temporally coordinated from visual letter encoding to final sentence comprehension, and how do such processes reflect on behavior such as the control of the eyes’ movements during reading. Various theoretical models have been proposed to account for the specific eye-movement behavior in reading (for a review see Reichle, Rayner, & Pollatsek, 2003). Some models are based on the idea of shifting attention serially from one word to the next within the sentence whereas others propose distributed attention allocating processing resources to more than one word at a time. As attention is assumed to drive word recognition processes one major difference between these models is that word processing must either occur in strict serial order, or that word processing is achieved in parallel. In spite of this crucial difference in the time course of word processing, both model classes perform well on explaining many of the benchmark effects in reading. In fact, there seems to be not much empirical evidence that challenges the models to a point at which their basic assumptions could be falsified. One issue often perceived as being decisive in the debate on serial and parallel word processing is how not-yet-fixated words to the right of fixation affect eye movements. Specifically, evidence is discussed as to what spatial extent such parafoveal words are previewed and how this influences current and subsequent word processing. Four experiments investigated parafoveal processing close to the spatial limits of the perceptual span. The present work aims to go beyond mere existence proofs of previewing words at such spatial distances. Introducing a manipulation that dissociates the sources of long-range preview effects, benefits and costs of parafoveal processing can be investigated in a single analysis and the differing impact is tracked across a three-word target region. In addition, the same manipulation evaluates the role of oculomotor error as the cause of non-local distributed effects. In this respect, the results contribute to a better understanding of the time course of word processing inside the perceptual span and attention allocation during reading.
In this work new fluorinated and non-fluorinated mono- and bifunctional trithiocarbonates of the structure Z-C(=S)-S-R and Z-C(=S)-S-R-S-C(=S)-Z were synthesized for the use as chain transfer agents (CTAs) in the RAFT-process. All newly synthesized CTAs were tested for their efficiency to moderate the free radical polymerization process by polymerizing styrene (M3). Besides characterization of the homopolymers by GPC measurements, end- group analysis of the synthesized block copolymers via 1H-, 19F-NMR, and in some cases also UV-vis spectroscopy, were performed attaching suitable fluorinated moieties to the Z- and/or R-groups of the CTAs. Symmetric triblock copolymers of type BAB and non-symmetric fluorine end- capped polymers were accessible using the RAFT process in just two or one polymerization step. In particular, the RAFT-process enabled the controlled polymerization of hydrophilic monomers such as N-isopropylacrylamide (NIPAM) (M1) as well as N-acryloylpyrrolidine (NAP) (M2) for the A-blocks and of the hydrophobic monomers styrene (M3), 2-fluorostyrene (M4), 3-fluorostyrene (M5), 4-fluorostyrene (M6) and 2,3,4,5,6-pentafluorostyrene (M7) for the B-blocks. The properties of the BAB-triblock copolymers were investigated in dilute, concentrated and highly concentrated aqueous solutions using DLS, turbidimetry, 1H- and 19F-NMR, rheology, determination of the CMC, foam height- and surface tension measurements and microscopy. Furthermore, their ability to stabilize emulsions and microemulsions and the wetting behaviour of their aqueous solutions on different substrates was investigated. The behaviour of the fluorine end-functionalized polymers to form micelles was studied applying DLS measurements in diluted organic solution. All investigated BAB-triblock copolymers were able to form micelles and show surface activity at room temperature in dilute aqueous solution. The aqueous solutions displayed moderate foam formation. With different types and concentrations of oils, the formation of emulsions could be detected using a light microscope. A boosting effect in microemulsions could not be found adding BAB-triblock copolymers. At elevated polymer concentrations, the formation of hydrogels was proved applying rheology measurements.
Inhalt: - I. Die Relevanz der Vereinten Nationen für eine Gemeinsame Außen- und Sicherheitspolitik der Europäischen Union - II. Rechtliche und „pararechtliche“ Grundlagen der EU-Zusammenarbeit - III. Praktische Gestaltung der EU-Zusammenarbeit bei den Vereinten Nationen. - 1. Generalversammlung - 2. Sicherheitsrat - IV. Die Vereinten Nationen als Thema der Brüsseler Institutionen - V. Zur Vertretung der EU im Sicherheitsrat (einige abschließende Anmerkungen)
Inhalt: - I. Die N-Entwicklungszusammenarbeit war zu starr und ineffizient – umfassende Reformen wurden Ende der 90er Jahre durchgeführt. - II. UN-Entwicklungszusammenarbeit ist politischer geworden – mehr Politikkohärenz, neue Partnerschaften und demokratischere Regierungsführung werden gefordert - 1. Mehr Politikkohärenz - 2. Neue Partnerschaften - 3. Demokratische Regierungsführung - II. UN-Entwicklungszusammenarbeit wird strategischer umgesetzt – Ausrichtung an Millenniumszielen, harmonisierte Programmhilfe, und ergebnisorientiertes Management werden erwartet - 1. Ausrichtung an den Millenniumszielen der UN - 2. Harmonisierte Programmhilfe - 3. Ergebnisorientiertes Management - III. Schlußfolgerungen - Literatur
Inhalt: - 1. Einleitung - 2. Paradigmenwechsel in der Entwicklungszusammenarbeit - 3. Neue Herausforderungen der Entwicklungszusammenarbeit - a. Komplexe Interdependenz - b. Neues Leitbild - c. Neue Management-Strukturen - d. Neue Instrumente - 4. Grenzen der neuen Konzepte - 5. Zusammenfassung - Literatur
NATO und Vereinte Nationen
(2011)
Inhalt: - I. Einleitung - II. Was ist der Global Compact? - III. Wie funktioniert der Global Compact? - IV. Der Global Compact will kein Verhaltenskodex sein. - V. Der Global Compact als Bestandteil von „global governance“ - VI. Der Global Compact und der Schutz der Menschenrechte - VII. Ausschau - Literatur - Teilnehmer des Global Compact
Global Governance
(2011)
Inhalt: - 1. Einleitung - 2. Ein friedensstrategisches Vakuum? - 3. Wandel in den Internationalen Beziehungen - 4. Der Sicherheitsbegriff im Global-Governance-Ansatz - 5. Bestehende Global Governance-Strukturen im Bereich „Frieden und Sicherheit“ - 6. Fazit: Gemeinsame Sicherheit als friedensstrategisches Leitbild - Literatur
Inhalt: - I. Einleitung - II. Begriff und Bedeutung von Globalisierung - 1. Einzelerscheinungen der Globalisierung - 2. Globalisierung als Denationalisierung und Entstaatlichung - III. Die Bedeutung des Welthandelsrechts im Prozeß der Globalisierung - 1. Allgemeine ökonomische und rechtliche Aspekte - 2. Die Akteure im Welthandelssystem - 3. Offene Märkte und Nichtdiskriminierung als zwei wesentliche Grundprinzipien der WTO-Rechtsordnung - 4. Die ordnungspolitischen Handlungsfreiheiten der WTO-Mitglieder - IV. Zusammenfassung - Literatur
Inhalt: - I. Einleitung - II. Materielles Völkerstrafrecht - 1. Die Zurechnung von Straftaten - 2. Die Strafbarkeit von Kriegsverbrechen - 3. Die völkerrechtlichen Konsequenzen des Folterverbots - 4. Die Konturierung des Verbrechens gegen die Menschlichkeit - 5. Die Kommandeursverantwortlichkeit - III. Völkerstrafprozeßrecht - 1. Die Rechtmäßigkeit der Einsetzung des Tribunals - 2. Der Ausschluß der Amtsimmunität - 3. Die Kooperationspflicht der Staaten - IV. Schlußbemerkung
Inhalt: - Kurzzusammenfassung - I. Introduction - II. Current challenges to the United Nations Human Rights Programme - III. The Secretary General’s Reform report “In larger Freedom” and its impact for the human rights programme - IV. The High Commissioner’s Plan of Action of May 2005 - V. Negotiations on the establishment of the Human Rights Council and first Council activities - VI. Reform of the treaty body system and debates over the creation of a unified standing treaty body
UN-Reform und Menschenrechte
(2011)
Inhalt: - Einführung - I. Allgemeiner Überblick über die UN-Reform - 1. Die Rolle der Vereinten Nationen in einer globalisierten Welt - 2. Grundgedanke der Reform - 3. Bisherige Reformschritte - 4. Menschenrechte in der Entwicklungszusammenarbeit - 5. Menschenrechte im Bereich „peace-keeping“ - 6. Kooperation der Vereinten Nationen mit der Privatwirtschaft - 7. Millennium Development Goals - 8. Zwischenergebnis - II. Treaty-body Reform - III. Ergebnis
Eine unendliche Geschichte?
(2011)
Vorwort
(2011)
Raumbilder im Wandel?
(2011)
BVerfG : Fraport
(2011)
Inhalt: - Das menschenrechtliche Diskriminierungsverbot und seine Grenzen - I. Einleitung - II. Die symbolische Dimension der Menschenrechte - 1. Ausschluss primärer Diskriminierung - 2. Menschen und Merkmale - III. Begriffliche Erweiterungen - 1. Institutionelle Diskriminierung - 2. Indirekte Diskriminierung - 3. Strukturelle Diskriminierung - IV. Fazit
IT-Strafrecht
(2011)
Inhalt: - I. Einleitung - II. Entwicklung des IT-Strafrechts - II.1. Computerstrafrecht - II.1.1. Das Zweite Gesetz zur Bekämpfung der Wirtschaftskriminalität vom 15. Mai 1986 - II.1.2. Das 41. Strafrechtsänderungsgesetz vom 7. August 2007 - II.2. Internetstrafrecht - II.2.1. Das Informations- und Kommunikationsdienstegesetz vom 22. Juli 1997 - II.2.2. Weitere Änderungen im Internetstrafrecht - II.3. Parallelen zwischen Computer- und Internetstrafrecht - III. Schluss
Inhalt: - A. Ausgangspunkt - B. Informationsrisiken im Mängelgewährleistungsrecht - B.I. Unsicherheiten hinsichtlich des tatsächlichenVorliegens der Tatbestandsvoraussetzungen - B.II. Auswirkungen der Informationsrisiken - B.III. Zwischenergebnis - C. Verteilung von Informationsrisiken im Systemder kaufrechtlichen Mängelgewährleistungsrechte - C.I. Notwendigkeit eines Korrektivs? - C.II. Auflösung der Informationsrisiken durchallgemeine zivilrechtliche Instrumente - C.III. Lösungsansätze - D. Ausblick
Inhalt: - I. Einleitung - II. Rechtsprechung des EuGH zu einzelnen Rechtsangleichungsmaßnahmen im Arbeitsrecht - II.1. Gleichbehandlung - II.2. Betriebsübergang - III. Arbeitsrechtlich relevanteRechtsprechung des EuGH zu den rechtlichenRahmenbedingungen des Binnenmarkts - III.1. Dienstleistungsfreiheit und Entsendung von Arbeitnehmern - III.2. Die EuGH-Urteile „Viking Line“, „Laval“ und„Rüffert“ aus den Jahren 2007 und 2008 - IV. Das Selbstverständnis des EuGH als „Integrationsmotor“ als Erklärung für scheinbar gegenläufige ordnungspolitische Ausrichtungen des EuGH - V. Fazit
Inhalt: - I. Das Ende des Kalten Krieges und die internationale Neuausrichtung Deutschlands - II. Schaffung neuer Handlungsspielräume für die auswärtige Gewalt - II.1. Anpassung verfassungsrechtlicher Standards an internationale Verpflichtungen: Internationale Strafgerichtsbarkeit und Art. 16 Abs. 2 S. 1 GG - II.2. Auslegung von verfassungsrechtlichen Standardsfür sicherheitspolitische Handlungsspielräume - III. Begrenzung und Kontrolle der Einwirkung völkerrechtlicher Normen auf das innerstaatliche Recht - III.1. Einwirkung völkerrechtlicher Normen auf das innerstaatliche Recht - III.2. Schrittweise Parlamentarisierung der Außenpolitik bei Maßnahmen der Exekutive? - III.3. Strikter Dualismus als Antwort auf die Einwirkungen völkerrechtlicher Gerichtsentscheidungen auf das nationale Recht
Inhalt: - I. Einleitung - II. Entwicklungsbedingungen und Probleme - II.1. Die konkrete Problemlage nach 1989 - II.2. Überlagernde Effekte - III. Die Lösungsansätze - III.1. Funktional- und Gebietsreform - III.2. Qualitätsaspekte - III.3. Reaktion auf Europäisierung - III.4. Adaption von Tendenzen aus der Privatwirtschaft - IV. Fazit
Plant growth and survival depend on photosynthesis in the leaves. This involves the uptake of carbon dioxide from the atmosphere and the simultaneous capture of light energy to produce organic molecules, which enter metabolism and are converted to many other compounds which then serve as building blocks for biomass growth. Leaves are organs specialised for photosynthetic carbon dioxide fixation. The function of leaves involves many trade-offs which must be optimised in order to achieve effective use of resources and maximum photosynthesis. It is known that the morphology of leaves adjusts to the growth environment of plants and this is important for optimising their function for photosynthesis. However, it is unclear how this adjustment is regulated. The general aim of the work presented in this thesis is to understand how leaf growth and morphology are regulated in the model species Arabidopsis thaliana. Special attention was dedicated to the possibility that there might be internal metabolic signals within the plant which affect the growth and development of leaves. In order to investigate this question, leaf growth and development must be considered beyond the level of the single organ and in the context of the whole plant because leaves do not grow autonomously but depend on resources and regulatory influences delivered by the rest of the plant. Due to the complexity of this question, three complementary approaches were taken. In the first and most specific approach it was asked whether a proposed down-stream component of sucrose signalling, trehalose-6-phosphate (Tre-6-P), might influence leaf development and growth. To investigate this question, transgenic Arabidopsis lines with perturbed levels of Tre-6-P were generated using the constitutive 35S promoter to express bacterial enzymes involved in trehalose metabolism. These experiments also led to an unanticipated project concerning a possible role for Tre-6-P in stomatal function, which is another very important function in leaves. In a second and more general approach it was investigated whether changes in sugar levels in plants affect the morphogenesis of leaves in response to light. For this, a series of metabolic mutants impaired in central metabolism were grown in one light environment and their leaf morphology was analysed. In a third and even more general approach the natural variation in leaf and rosette morphological traits was investigated in a panel of wild Arabidopsis accessions with the aim of understanding how leaf morphology affects leaf function and whole plant growth and how different traits relate to each other. The analysis included measurements of leaf morphological traits as well as the number of leaves in the plant to put leaf morphology in a whole plant context. The variance in plant growth could not be explained by variation in photosynthetic rates and only to a small degree by variation in rates of dark respiration. There were four key axes of variation in rosette and leaf morphology – leaf area growth, leaf thickness, cell expansion and leaf number. These four processes were integrated in the context of whole plant growth by models that employed a multiple linear regression approach. This then led to a theoretical approach in which a simple allometric mathematical model was constructed, linking leaf number, leaf size and plant growth rate together in a whole plant context in Arabidopsis.
The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
Business process models are used within a range of organizational initiatives, where every stakeholder has a unique perspective on a process and demands the respective model. As a consequence, multiple process models capturing the very same business process coexist. Keeping such models in sync is a challenge within an ever changing business environment: once a process is changed, all its models have to be updated. Due to a large number of models and their complex relations, model maintenance becomes error-prone and expensive. Against this background, business process model abstraction emerged as an operation reducing the number of stored process models and facilitating model management. Business process model abstraction is an operation preserving essential process properties and leaving out insignificant details in order to retain information relevant for a particular purpose. Process model abstraction has been addressed by several researchers. The focus of their studies has been on particular use cases and model transformations supporting these use cases. This thesis systematically approaches the problem of business process model abstraction shaping the outcome into a framework. We investigate the current industry demand in abstraction summarizing it in a catalog of business process model abstraction use cases. The thesis focuses on one prominent use case where the user demands a model with coarse-grained activities and overall process ordering constraints. We develop model transformations that support this use case starting with the transformations based on process model structure analysis. Further, abstraction methods considering the semantics of process model elements are investigated. First, we suggest how semantically related activities can be discovered in process models-a barely researched challenge. The thesis validates the designed abstraction methods against sets of industrial process models and discusses the method implementation aspects. Second, we develop a novel model transformation, which combined with the related activity discovery allows flexible non-hierarchical abstraction. In this way this thesis advocates novel model transformations that facilitate business process model management and provides the foundations for innovative tool support.
A key non-destructive technique for analysis, optimization and developing of new functional materials such as sensors, transducers, electro-optical and memory devices is presented. The Thermal-Pulse Tomography (TPT) provides high-resolution three-dimensional images of electric field and polarization distribution in a material. This thermal technique use a pulsed heating by means of focused laser light which is absorbed by opaque electrodes. The diffusion of the heat causes changes in the sample geometry, generating a short-circuit current or change in surface potential, which contains information about the spatial distribution of electric dipoles or space charges. Afterwards, a reconstruction of the internal electric field and polarization distribution in the material is possible via Scale Transformation or Regularization methods. In this way, the TPT was used for the first time to image the inhomogeneous ferroelectric switching in polymer ferroelectric films (candidates to memory devices). The results shows the typical pinning of electric dipoles in the ferroelectric polymer under study and support the previous hypotheses of a ferroelectric reversal at a grain level via nucleation and growth. In order to obtain more information about the impact of the lateral and depth resolution of the thermal techniques, the TPT and its counterpart called Focused Laser Intensity Modulation Method (FLIMM) were implemented in ferroelectric films with grid-shaped electrodes. The results from both techniques, after the data analysis with different regularization and scale methods, are in total agreement. It was also revealed a possible overestimated lateral resolution of the FLIMM and highlights the TPT method as the most efficient and reliable thermal technique. After an improvement in the optics, the Thermal-Pulse Tomography method was implemented in polymer-dispersed liquid crystals (PDLCs) films, which are used in electro-optical applications. The results indicated a possible electrostatic interaction between the COH group in the liquid crystals and the fluorinate atoms of the used ferroelectric matrix. The geometrical parameters of the LC droplets were partially reproduced as they were compared with Scanning Electron Microscopy (SEM) images. For further applications, it is suggested the use of a non-strong-ferroelectric polymer matrix. In an effort to develop new polymerferroelectrets and for optimizing their properties, new multilayer systems were inspected. The results of the TPT method showed the non-uniformity of the internal electric-field distribution in the shaped-macrodipoles and thus suggested the instability of the sample. Further investigation on multilayers ferroelectrets was suggested and the implementation of less conductive polymers layers too.
Aus dem Inhalt: 1 Einleitung 2 Entwicklungen auf dem deutschen Arbeitsmarkt 2.1 Das Normalarbeitsverhältnis und seine Bedeutung für den deutschen Arbeitsmarkt 2.2 Flexibilität von Beschäftigungsverhältnissen 2.3 Die Entwicklung der Beschäftigungsverhältnisse in der Bundesrepublik Deutschland 3 Das deutsche System sozialer Sicherung 3.1 Die Bundesrepublik Deutschland als konservativer Wohlfahrtsstaat 3.2 Zur Prekarität atypischer Beschäftigung im deutschen System sozialer Sicherung 4 Die Flexicurity-Strategie anderer Länder 4.1 Dänemark 4.2 Niederlande 5 Die Bewährung der dargestellten arbeitsmarkt- und sozialpolitischen Modelle und Schlussfolgerungen für die Bundesrepublik 5.1 Zur Performanz der Modelle in Dänemark, Deutschland und den Niederlanden 5.2 Ansatzpunkte für die Bundesrepublik Deutschland 6 Fazit und Ausblick
Die Arbeit geht aus von der Annahme, dass Literatur und Malerei, obgleich sie ihren Darstellungsformen entsprechend unterschiedliche Werkzeuge oder Strategien nutzen, ähnliche Potentiale der Gedächtnisreflexion für den Rezipienten bereitstellen. Selbst wenn die Strategien zur Erlangung eines Potentials der Reflexion von Gedächtnis also an die jeweilige Disziplin gebunden sind, so können doch die reflektierten Aspekte ähnliche sein. Ziel dieser Arbeit ist es, zu zeigen, dass in Theorie und Praxis solche Überschneidungen auffindbar sind. Dabei sollen Literatur und bildende Kunst (hier: Malerei) als zwei von vielen möglichen Erinnerungsmedien und ihre Funktionen innerhalb eines kollektiven Gedächtnisses als solche dargestellt werden. Speziell befasst sich die Arbeit dann mit der Funktion der Reflexion des kollektiven Erinnerns als Wirkungspotential, das im Rezeptionsprozess aktualisiert werden kann. Verschiedene Strategien der Gedächtnisreflexion werden unterschieden und in den drei Anwendungsbeispielen analysiert. Die Arbeit fasst zunächst einige von den Studien Jan und Aleida Assmanns ausgehende narratologische Konzepte zur Erinnerungskultur zusammen, darunter die Ansätze von Astrid Erll und Birgit Neumann. Es kristalliert sich eine Unterscheidung von Gedächtnisbildung und Gedächtnisreflexion heraus. Genauer in den Blick genommen wird Astrid Erlls Modell einer „Rhetorik des kollektiven Gedächtnisses.“ Auf drei Textebenen, der Handlungsebene, der Textstruktur und der sprachlichen Ebene können Potentiale der Gedächtnisreflexion beschrieben werden. Anhand dieser Unterteilungen werden im Anwendungsteil dann zwei literarische Prosatexte der gegenwärtigen Erinnerungsliteratur in den Blick genommen. Beide Texte, sowohl Grass' Im Krebsgang als auch Timms Halbschatten weisen vielfältige Strategien der Gedächtnisreflexion auf, die sich aber in ihrer Schwerpunktbildung voneinander unterscheiden. Zudem wird die Methodik auf den Gemäldezyklus 18. Oktober 1977 des Malers Gerhard Richter angewandt.
Diese Magisterarbeit ist dem bis heute sehr komplexen Geschlechterverhältnis gewidmet. Dieses Verhältnis werde ich analysieren, indem ich das literarische Motiv des Geschlechtertausches ausarbeite. Dabei werde ich seine kulturhistorische Entwicklung berücksichtigen. Das Thema wird interdisziplinär behandelt und zwar mithilfe anthropologischer, psychoanalytischer, literaturwissenschaftlicher sowie ideengeschichtlicher Perspektiven und Methoden – all dies um seine Komplexität zu erfassen. Zunächst wird die menschliche Geschlechtsidentität als ein naturbedingtes Phänomen einerseits und als ein kulturelles Konstrukt andererseits diskutiert. Die Psychoanalyse wird den feministischen Theorien entgegen gestellt, woraufhin sie sich als Versuch der Legitimierung der gesellschaftlichen Ordnung erweist. Die anschließende Analyse der kulturellen Repräsentationsformen des Weiblichen wird es deutlich machen, wie schwer es ist, die über mehrere Jahrhunderte tradierten Weiblichkeitsbilder zu „neutralisieren“. Die literarische Grundlage für die Untersuchung der Geschlechterbeziehungen verschaffen die drei „Geschichten über die Umwandlung der Verhältnisse“ (1980). In allen Texten vollzieht sich ein Geschlechtswandel: die Protagonistinnen schlüpfen in männliche Körper ein und auf einmal erfahren sie die Welt aus der bisher unbekannten Perspektive. Dabei empfindet jede von denen die neue Situation anders und doch so ähnlich. Anhand von Sarah Kirschs „Blitz aus dem heiterm Himmel“, Irmtraud Morgners „Gute Botschaft der Valeska in 73 Strophen“ und Christa Wolfs „Selbstversuch. Traktat zu einem Protokoll“ werden die regressiven patriarchalischen Strukturen aufgedeckt, in denen der Frau eine minderwertige Positionierung in einer Gesellschaft zugeschrieben wird. Da sich die Beziehungen zwischen Männern und Frauen in den gesellschaftlichen Machtverhältnissen widerspiegeln, werden die Geschichten im Kontext der sozialistischen Wirklichkeit der DDR in den 1970er Jahre analysiert. Aus diesen Untersuchungen ergeben sich klare Erkenntnisse: die Realität des „emanzipierten“ DDR-Staates hatte mit dem marxistischen Traum nichts zu tun. Diese in den Erzählungen widerspiegelte historisch-politische Wirklichkeit stellte die propagandistische Gleichberechtigung der Frauen in Frage. Die Sozialpolitik wird als eine der modernen männlichen Legitimationsstrategien für die Erhaltung der patriarchalischen Ordnung entschleiert. Damit die Frau nicht mehr über den Mann definiert wird, müsste eine grundlegende Veränderung der gesellschaftlichen Geschlechtsvorstellungen erfolgen. Alle in dieser Arbeit untersuchten Geschlechtertauschgeschichten beinhalten diverse Utopie-Entwürfe, die jedoch keine perfekte Ordnung darstellen. Ganz im Gegenteil – das sind eher negative Utopien, die fundamentale Kritik an der Ungleichheit der gesellschaftlichen Positionierung der Geschlechter zum Ziel haben. Christa Wolf, Irmtraud Morgner und Sarah Kirsch thematisierten in ihren Erzählungen die Problematik der Geschlechterverhältnisse in der DDR der 1970er Jahre und machten auf die Dringlichkeit des weiblichen Widerstandes aufmerksam. Gleichzeitig soll dieser literarische Diskurs die eigentliche Möglichkeit der Veränderung des gesellschaftlichen Status der Frauen aufzeigen. Daher sind diese imaginierten Geschlechtertauschgeschichten als Manifeste für wahre Gleichstellung der Frauen zu lesen.
Bildverarbeitungsanwendungen stellen besondere Ansprüche an das ausführende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilität von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. Für neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu wählen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inhärent parallel, doch herkömmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" können hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele Lösungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch für einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexität von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand für Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler ermöglicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.
Migration and development in Senegal : a system dynamics analysis of the feedback relationships
(2011)
This thesis investigates the reciprocal relationship between migration and development in Senegal. Therewith, it contributes to the debate as to whether migration in developing countries enhances or rather impedes the development process. Even though extensive and controversial discussions can be found in the scientific literature regarding the impact of migration on development, research has scarcely examined the feedback relationships between migration and development. Science however agrees with both the fact that migration affects development as well as that the level of development in a country determines migration behaviour. Thus, both variables are neither dependent nor independent, but endogenous variables influencing each other and producing behavioural pattern that cannot be investigated using a static and unidirectional approach. On account of this, the thesis studies the feedback mechanisms existing between migration and development and the behavioural pattern generated by the high interdependence in order to be able to draw conclusions concerning the impact of changes in migration behaviour on the development process. To explore these research questions, the study applies the computer simulation method ‘System Dynamics’ and amplifies the simulation model for national development planning called ‘Threshold 21’ (T21), representing development processes endogenously and integrating economic, social and environmental aspects, using a structure that portrays the reasons and consequences of migration. The model has been customised to Senegal, being an appropriate representative of the theoretical interesting universe of cases. The comparison of the model generated scenarios - in which the intensity of emigration, the loss and gain of education, the remittances or the level of dependence changes - facilitates the analysis. The present study produces two important results. The first outcome is the development of an integrative framework representing migration and development in an endogenous way and incorporating several aspects of different theories. This model can be used as a starting point for further discussions and improvements and it is a fairly relevant and useful result against the background that migration is not integrated into most of the development planning tools despite its significant impact. The second outcome is the gained insights concerning the feedback relations between migration and development and the impact of changes in migration on development. To give two examples: It could be found that migration impacts development positively, indicated by HDI, but that the dominant behaviour of migration and development is a counteracting behaviour. That means that an increase in emigration leads to an improvement in development, while this in turn causes a decline in emigration, counterbalancing the initial increase. Another insight concerns the discovery that migration causes a decline in education in the short term, but leads to an increase in the long term, after approximately 25 years - a typical worse-before-better behaviour. From these and further observations, important policy implications can be derived for the sending and receiving countries. Hence, by overcoming the unidirectional perspective, this study contributes to an improved understanding of the highly complex relationship between migration and development and their feedback relations.
Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail.
Biology has made great progress in identifying and measuring the building blocks of life. The availability of high-throughput methods in molecular biology has dramatically accelerated the growth of biological knowledge for various organisms. The advancements in genomic, proteomic and metabolomic technologies allow for constructing complex models of biological systems. An increasing number of biological repositories is available on the web, incorporating thousands of biochemical reactions and genetic regulations. Systems Biology is a recent research trend in life science, which fosters a systemic view on biology. In Systems Biology one is interested in integrating the knowledge from all these different sources into models that capture the interaction of these entities. By studying these models one wants to understand the emerging properties of the whole system, such as robustness. However, both measurements as well as biological networks are prone to considerable incompleteness, heterogeneity and mutual inconsistency, which makes it highly non-trivial to draw biologically meaningful conclusions in an automated way. Therefore, we want to promote Answer Set Programming (ASP) as a tool for discrete modeling in Systems Biology. ASP is a declarative problem solving paradigm, in which a problem is encoded as a logic program such that its answer sets represent solutions to the problem. ASP has intrinsic features to cope with incompleteness, offers a rich modeling language and highly efficient solving technology. We present ASP solutions, for the analysis of genetic regulatory networks, determining consistency with observed measurements and identifying minimal causes for inconsistency. We extend this approach for computing minimal repairs on model and data that restore consistency. This method allows for predicting unobserved data even in case of inconsistency. Further, we present an ASP approach to metabolic network expansion. This approach exploits the easy characterization of reachability in ASP and its various reasoning methods, to explore the biosynthetic capabilities of metabolic reaction networks and generate hypotheses for extending the network. Finally, we present the BioASP library, a Python library which encapsulates our ASP solutions into the imperative programming paradigm. The library allows for an easy integration of ASP solution into system rich environments, as they exist in Systems Biology.
Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
In this thesis, we discuss the formulation of variational problems on supermanifolds. Supermanifolds incorporate bosonic as well as fermionic degrees of freedom. Fermionic fields take values in the odd part of an appropriate Grassmann algebra and are thus showing an anticommutative behaviour. However, a systematic treatment of these Grassmann parameters requires a description of spaces as functors, e.g. from the category of Grassmann algberas into the category of sets (or topological spaces, manifolds). After an introduction to the general ideas of this approach, we use it to give a description of the resulting supermanifolds of fields/maps. We show that each map is uniquely characterized by a family of differential operators of appropriate order. Moreover, we demonstrate that each of this maps is uniquely characterized by its component fields, i.e. by the coefficients in a Taylor expansion w.r.t. the odd coordinates. In general, the component fields are only locally defined. We present a way how to circumvent this limitation. In fact, by enlarging the supermanifold in question, we show that it is possible to work with globally defined components. We eventually use this formalism to study variational problems. More precisely, we study a super version of the geodesic and a generalization of harmonic maps to supermanifolds. Equations of motion are derived from an energy functional and we show how to decompose them into components. Finally, in special cases, we can prove the existence of critical points by reducing the problem to equations from ordinary geometric analysis. After solving these component equations, it is possible to show that their solutions give rise to critical points in the functor spaces of fields.
In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition.
This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.
Service-oriented Architectures (SOA) facilitate the provision and orchestration of business services to enable a faster adoption to changing business demands. Web Services provide a technical foundation to implement this paradigm on the basis of XML-messaging. However, the enhanced flexibility of message-based systems comes along with new threats and risks. To face these issues, a variety of security mechanisms and approaches is supported by the Web Service specifications. The usage of these security mechanisms and protocols is configured by stating security requirements in security policies. However, security policy languages for SOA are complex and difficult to create due to the expressiveness of these languages. To facilitate and simplify the creation of security policies, this thesis presents a model-driven approach that enables the generation of complex security policies on the basis of simple security intentions. SOA architects can specify these intentions in system design models and are not required to deal with complex technical security concepts. The approach introduced in this thesis enables the enhancement of any system design modelling languages – for example FMC or BPMN – with security modelling elements. The syntax, semantics, and notion of these elements is defined by our security modelling language SecureSOA. The metamodel of this language provides extension points to enable the integration into system design modelling languages. In particular, this thesis demonstrates the enhancement of FMC block diagrams with SecureSOA. To enable the model-driven generation of security policies, a domain-independent policy model is introduced in this thesis. This model provides an abstraction layer for security policies. Mappings are used to perform the transformation from our model to security policy languages. However, expert knowledge is required to generate instances of this model on the basis of simple security intentions. Appropriate security mechanisms, protocols and options must be chosen and combined to fulfil these security intentions. In this thesis, a formalised system of security patterns is used to represent this knowledge and to enable an automated transformation process. Moreover, a domain-specific language is introduced to state security patterns in an accessible way. On the basis of this language, a system of security configuration patterns is provided to transform security intentions related to data protection and identity management. The formal semantics of the security pattern language enable the verification of the transformation process introduced in this thesis and prove the correctness of the pattern application. Finally, our SOA Security LAB is presented that demonstrates the application of our model-driven approach to facilitate a dynamic creation, configuration, and execution of secure Web Service-based composed applications.
Ein neuentwickeltes azobenzenhaltiges Material, das auf einem supramolekularen Konzept basiert, wird bezüglich seiner Strukturbildung während einer holografischen Belichtung bei 488 nm untersucht. Im Mittelpunkt stehen dabei eindimensionale, sinusförmige Reliefs mit Periodizitäten kleiner 500 nm. Es wird gezeigt, wie der Grad der Vernetzung der photosensitiven Schicht die Strukturbildung in diesem Größenbereich beeinflusst. Zur Maximierung der Strukturtiefe werden gezielt Prozessparameter der Belichtung sowie Materialparameter variiert. Unter Standardbedingungen und moderaten Belichtungsintensitäten von ca. 200 mW/cm² bilden sich innerhalb weniger Minuten bei einer Periode von 400 nm Strukturtiefen von bis zu 80nm aus. Durch die Beeinflussung von Materialparametern, wie Oberflächenspannung und Viskosität, wird die maximale Strukturtiefe auf 160nm verdoppelt. Durch Mehrfachbelichtungen wird auch die Bildung von zweidimensionalen Gittern untersucht. Die Originalstrukturen werden in einem Abformverfahren kopiert und in Schichten von unter UV-Licht aushärtenden Polymeren übertragen. Durch das Abformen kommt es zu einer geringfügigen Verschlechterung der Oberflächenqualität sowie Abnahme der Strukturtiefe. Dieser Verlust wird durch eine Verringerung der Prozesstemperatur verringert. Mithilfe kopierter Oberflächengitter werden organische Distributed Feedback-(DFB)-Laser zweiter Ordnung hergestellt, um den Einfluss von Gitterparametern auf die Emissionseigenschaften dieser Laser zu untersuchen. Dazu erfolgt zunächst die Charakterisierung der optischen Verstärkungseigenschaften ausgewählter organischer Emittermaterialien mittels der Variablen Strichlängenmethode. Das mit dem Laserfarbstoff Pyrromthen567 (PM567) dotierte Polystyrol (PS) zeigt dabei trotz konzentrationsbedingter geringer Absorption eine vergleichsweise geringe Gewinnschwelle von 50µJ/cm² bei ca. 575 nm. Das aktive Gast-Wirt-System der konjugierten Polymere MEH-PPV und F8BT* weist eine hohe Absorption und eine kleine Gewinnschwelle von 2,5 µJ/cm² bei 630 nm auf. Dieses Verhalten spiegelt sich auch in den Emissionseigenschaften der damit hergestellten DFB-Laser wieder. Die Dicke der aktiven Schichten liegen im Bereich hunderter Nanometer und wird so eingestellt, dass sich nur die transversalen Grundmoden im Wellenleiter ausbreiten können. Die Gitterperiode sind so gewählt, dass ein Lichtmode im Verstärkungsbereich des Emittermaterials liegt. Die Emissionslinien der Laser sind mit FWHM-Werten von bis zu 0,3 nm spektral sehr schmalbandig und weisen auf eine sehr gute Gitterqualität hin. Die Untersuchungen liefern minimale Laserschwellen und maximale differentielle Effizienzen von 4,0µJ/cm² und 8,4% für MEH-PPV in F8BT* (bei ca. 640nm) sowie 80 µJ/cm² und 0,9% für PM567 in PS (bei ca. 575 nm). Die Vergrößerung der Strukturtiefe von 40nm auf 80nm in mit MEH-PPV dotierten F8BT*-Lasern zu einem deutlichen Anstieg der ausgekoppelten Energie sowie der differentiellen Effizienz und einem geringen Absinken der Laserschwelle. Dies ist ein Resultat der erhöhten Kopplung von Lasermode und Gitter. Die Emission von DFB-Lasern mit zweidimensionalen Oberflächengittern zeigen eine Verringerung der Divergenz aber kein Einfluss auf die Laserschwelle. Abschließend erfolgt eine Vermessung der Photostabilität von DFB-Lasern unter verschiedenen Bedingungen. Das Einbringen eines konjugierten Polymers in eine aktive Matrix sowie der Betrieb in einer Stickstoffatmosphäre führen dabei zu einer Erhöhung der Lebensdauer auf über eine Million Pulse. Durch die Kombination von Oberflächengittern in PDMS-Filmen mit elektroaktiven Substraten wird eine elektrisch steuerbare Deformation des Beugungsgitters erreicht und auf einen DFB-Laser übertragen. Die spannungsinduzierte Verformung wird zunächst in Beugungsexperimenten charakterisiert und ein optimaler Arbeitspunkt bestimmt. Mit den beiden Elastomeren SEBS12 und VHB4910 werden in den Gittern maximale Periodenänderungen von 1,3% bzw. 3,4% bei einer Steuerspannung von 2 kV erreicht. Der Unterschied resultiert aus den verschiedenen Elastizitätsmoduln der Materialien. Übertragen auf DFB-Laser resultiert eine Variation der Gitterperiode senkrecht zu den Gitterlinien in einer kontinuierlichen Verschiebung der Emissionswellenlänge. Mit einem Spannungssignal von 3,25 kV wird die schmalbandige Emission eines elastischen DFB-Lasers kontinuierlich um fast 50nm von 604 nm zu 557 nm hin verschoben. Aus dem Deformationsverhalten sowohl der reinen Beugungsgitter als auch der Laser werden Rückschlüsse auf die Elastizität der verwendeten Materialien gezogen und erlauben Verbesserungen der Bauteile.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
This essay revisits Ian McEwan’s extremely successful novel Saturday, and interrogates its exemplary assessment of the British cultural climate after 9/11. The particular focus is on McEwan’s extensive recourse to the writings of Matthew Arnold, whose melancholy outlook on culture and anarchy McEwan basically translates into the 21st century without much ideological fraction. This relapse into Victorian liberal humanism as consolation for a Western world besieged by the contingencies of terrorism is extremely problematic. Not only does it wilfully ignore the transcultural realities of modern Britain, it also promotes an ahistorical and apolitical mode of critical inquiry which may be called reductive at best in view of the global challenges that the novel addresses.
Reader zur Gleichstellung
(2011)
Version Control Systems (VCS) allow developers to manage changes to software artifacts. Developers interact with VCSs through a variety of client programs, such as graphical front-ends or command line tools. It is desirable to use the same version control client program against different VCSs. Unfortunately, no established abstraction over VCS concepts exists. Instead, VCS client programs implement ad-hoc solutions to support interaction with multiple VCSs. This thesis presents Pur, an abstraction over version control concepts that allows building rich client programs that can interact with multiple VCSs. We provide an implementation of this abstraction and validate it by implementing a client application.
The World Wide Web as an application platform becomes increasingly important. However, the development of Web applications is often more complex than for the desktop. Web-based development environments like Lively Webwerkstatt can mitigate this problem by making the development process more interactive and direct. By moving the development environment into the Web, applications can be developed collaboratively in a Wiki-like manner. This report documents the results of the project seminar on Web-based Development Environments 2010. In this seminar, participants extended the Web-based development environment Lively Webwerkstatt. They worked in small teams on current research topics from the field of Web-development and tool support for programmers and implemented their results in the Webwerkstatt environment.
Salty taste has evolved to maintain electrolyte homeostasis, serving as a detector for salt containing food. In rodents, salty taste involves at least two transduction mechanisms. One is sensitive to the drug amiloride and specific for Na+, involving epithelial sodium channel (ENaC). A second rodent transduction pathway, which is triggered by various cations, is amiloride insensitive and not almost understood to date. Studies in primates showed amiloride-sensitive as well as amiloride-insensitive gustatory responses to NaCl, implying a role of both salt taste transduction pathways in humans. However, sensory studies in humans point to largely amiloride-insensitive sodium taste perception. An involvement of ENaC in human sodium taste perception was not shown, so far. In this study, ENaC subunit protein and mRNA could be localized to human taste bud cells (TBC). Thus, basolateral αβγ-ENaC ion channels are likely in TBC of circumvallate papillae, possibly mediating basolateral sodium entry. Similarly, basolateral βγ-ENaC might play a role in fungiform TBC. Strikingly, δ-ENaC subunit was confined to taste bud pores of both papillae, likely mediating gustatory sodium entry in TBC, either apical or paracellular via tight junctions. However, regional separation of δ-ENaC and βγ-ENaC in fungiform and circumvallate TBC indicate the presence of unknown interaction partner necessary to assemble into functional ion channels. However, screening of a macaque taste tissue cDNA library did neither reveal polypeptides assembling into a functional cation channel by interaction with δ-ENaC or βγ-ENaC nor ENaC independent salt taste receptor candidates. Thus, ENaC subunits are likely involved in human taste transduction, while exact composition and identity of an amiloride (in)sensitive salt taste receptors remain unclear. Localization of δ-ENaC in human taste pores strongly suggests a role in human taste transduction. In contrast, δ-ENaC is classified as pseudogene Scnn1d in mouse. However, no experimental detected sequences are annotated, while evidences for parts of Scnn1d derived mRNAs exist. In order to elucidate if Scnn1d is possibly involved in rodent salt taste perception, Scnn1d was evaluated in this study to clarify if Scnn1d is a gene or a transcribed pseudogene in mice. Comparative mapping of human SCNN1D to mouse chromosome 4 revealed complete Scnn1d sequence as well as its pseudogenization by Mus specific endogenous retroviruses. Moreover, tissue specific transcription of unitary Scnn1d pseudogene was found in mouse vallate papillae, kidney and testis and led to identification of nine Scnn1d transcripts. In vitro translation experiments showed that Scnn1d transcripts are coding competent for short polypeptides, possibly present in vivo. However, no sodium channel like function or sodium channel modulating activity was evident for Scnn1d transcripts and/or derived polypeptides. Thus, an involvement of mouse δ-ENaC in sodium taste transduction is unlikely and points to species specific differences in salt taste transduction mechanisms.
Sediment records of three European lakes were investigated in order to reconstruct the regional climate development during the Lateglacial and Holocene, to investigate the response of local ecosystems to climatic fluctuations and human impact and to relate regional peculiarities of past climate development to climatic changes on a larger spatial scale. The Lake Hańcza (NE Poland) sediment record was studied with a focus on reconstructing the early Holocene climate development and identifying possible differences to Western Europe. Following the initial Holocene climatic improvement, a further climatic improvement occurred between 10 000 and 9000 cal. a BP. Apparently, relatively cold and dry climate conditions persisted in NE Poland during the first ca. 1500 years of the Holocene, most likely due to a specific regional atmospheric circulation pattern. Prevailing anticyclonic circulation linked to a high-pressure cell above the remaining Scandinavian Ice Sheet (SIS) might have blocked the eastward propagation of warm and moist Westerlies and thus attenuated the early Holocene climatic amelioration in this region until the final decay of the SIS, a pattern different from climate development in Western Europe. The Lateglacial sediment record of Lake Mondsee (Upper Austria) was investigated in order to study the regional climate development and the environmental response to rapid climatic fluctuations. While the temperature rise and environmental response at the onset of the Holocene took place quasi-synchronously, major leads and lags in proxy responses characterize the onset of the Lateglacial Interstadial. In particular, the spread of coniferous woodlands and the reduction of detrital flux lagged the initial Lateglacial warming by ca. 500–750 years. Major cooling at the onset of the Younger Dryas took place synchronously with a change in vegetation, while the increase of detrital matter flux was delayed by about 150–300 years. Complex proxy responses are also detected for short-term Lateglacial climatic fluctuations. In summary, periods of abrupt climatic changes are characterized by complex and temporally variable proxy responses, mainly controlled by ecosystem inertia and the environmental preconditions. A second study on the Lake Mondsee sediment record focused on two small-scale climate deteriorations around 8200 and 9100 cal. a BP, which have been triggered by freshwater discharges to the North Atlantic, causing a shutdown of the Atlantic meridional overturning circulation (MOC). Combining microscopic varve counting and AMS 14C dating yielded a precise duration estimate (ca. 150 years) and absolute dating of the 8.2 ka cold event, both being in good agreement with results from other palaeoclimate records. Moreover, a sudden temperature overshoot after the 8.2 ka cold event was identified, also seen in other proxy records around the North Atlantic. This was most likely caused by enhanced resumption of the MOC, which also initiated substantial shifts of oceanic and atmospheric front systems. Although there is also evidence from other proxy records for pronounced recovery of the MOC and atmospheric circulation changes after the 9.1 ka cold event, no temperature overshoot is seen in the Lake Mondsee record, indicating the complex behaviour of the global climate system. The Holocene sediment record of Lake Iseo (northern Italy) was studied to shed light on regional earthquake activity and the influence of climate variability and anthropogenic impact on catchment erosion and detrital flux into the lake. Frequent small-scale detrital layers within the sediments reflect allochthonous sediment supply by extreme surface runoff events. During the early to mid-Holocene, increased detrital flux coincides with periods of cold and wet climate conditions, thus apparently being mainly controlled by climate variability. In contrast, intervals of high detrital flux during the late Holocene partly also correlate with phases of increased human impact, reflecting the complex influences on catchment erosion processes. Five large-scale event layers within the sediments, which are composed of mass-wasting deposits and turbidites, are supposed to have been triggered by strong local earthquakes. While the uppermost of these event layers is assigned to a documented adjacent earthquake in AD 1222, the four other layers are supposed to be related to previously undocumented prehistorical earthquakes.
Multiple Imputation hat sich in den letzten Jahren als adäquate Methode zum Umgang mit fehlenden Werten erwiesen und etabliert. Das gilt zumindest für die Theorie, denn im Angesicht mangelnder anwendungsbezogener Erläuterungen und Einführungen verzichten in der Praxis viele Sozialwissenschaftler auf diese notwendige Datenaufbereitung. Trotz (oder vielleicht auch wegen) der stetig fortschreitenden Weiterentwicklung der Programme und Optionen zur Umsetzung Multipler Imputationen, sieht sich der Anwender mit zahlreichen Herausforderungen konfrontiert, für die er mitunter nur schwer Lösungsansätze findet. Die Schwierigkeiten reichen von der Analyse und Aufbereitung der Zielvariablen, über die Software-Entscheidung, die Auswahl der Prädiktoren bis hin zur Modell-Formulierung und Ergebnis-Evaluation. In diesem Beitrag wird die Funktionsweise und Anwendbarkeit Multipler Imputationen skizziert und es wird eine Herangehensweise entwickelt, die sich in der schrittweisen Umsetzung dieser Methode als nützlich erwiesen hat – auch für Einsteiger. Es werden konkrete potenzielle Schwierigkeiten angesprochen und mögliche Problemlösungen diskutiert; vor allem die jeweilige Beschaffenheit der fehlenden Werte steht hierbei im Vordergrund. Der Imputations-Prozess und alle mit ihm verbundenen Arbeitsschritte werden anhand eines Anwendungsbeispiels – der Multiplen Imputation des Gesamtvermögens reicher Haushalte – exemplarisch illustriert.
- Sichtbarer Translator - Jan Assmanns Translationsmodell - Inhaltliche Parallelen zwischen Migration und Translation im erweiterten Übersetzungskonzept - Ein bewohnbarer „dritter Raum“? - Produktives ‚Dazwischen‘ - Migrationsliteratur als Medium kultureller Übersetzung - Poetik der Migration. Die aktuellen literaturwissenschaftlichen ‚Befunde‘ - Nahtstelle: Migration/Translation - Rhetorik - Metaphorik - Denkfiguren - Ambivalente Differenz
Horomedon und Laokoon
(2011)
- Öffentlichkeit und Angst. Affirmationsdrang und Mut - Interpretatorische Vereinnahmung des Textes - Passive Weltlosigkeit und aktive Weltflucht - Heimischwerden in der Nationalliteratur - Pragmatik des Ästhetischen - "Urteilsspruch" - Legitimierung des halbwüchsigen Rauschens als literarischer Sprache: Die Politik der Literatur