Refine
Has Fulltext
- yes (13322) (remove)
Year of publication
Document Type
- Article (3993)
- Postprint (3294)
- Doctoral Thesis (2528)
- Monograph/Edited Volume (970)
- Review (558)
- Part of Periodical (492)
- Preprint (446)
- Master's Thesis (264)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7040)
- English (5982)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1376)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (714)
- Institut für Biochemie und Biologie (708)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (555)
- Institut für Mathematik (519)
- Institut für Romanistik (509)
- Institut für Geowissenschaften (508)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
This document is an analysis of the 'Java Language Conversion Assistant'. Itr will also cover a language analysis of the Java Programming Language as well as a survey of related work concerning Java and C# interoperability on the one hand and language conversion in general on the other. Part I deals with language analysis. Part II covers the JLCA tool and tests used to analyse the tool. Additionally, it gives an overview of the above mentioned related work. Part III presents a complete project that has been translated using the JLCA.
The Apache Modeling Project
(2004)
This document presents an introduction to the Apache HTTP Server, covering both an overview and implementation details. It presents results of the Apache Modelling Project done by research assistants and students of the Hasso–Plattner–Institute in 2001, 2002 and 2003. The Apache HTTP Server was used to introduce students to the application of the modeling technique FMC, a method that supports transporting knowledge about complex systems in the domain of information processing (software and hardware as well). After an introduction to HTTP servers in general, we will focus on protocols and web technology. Then we will discuss Apache, its operational environment and its extension capabilities— the module API. Finally we will guide the reader through parts of the Apache source code and explain the most important pieces.
1. Grundlagen der Softwarevisualisierung Johannes Bohnet und Jürgen Döllner 2. Visualisierung und Exploration von Softwaresystemen mit dem Werkzeug SHriMP/Creole Alexander Gierak 3. Annex: SHriMP/Creole in der Anwendung Nebojsa Lazic 4. Metrikbasierte Softwarevisualisierung mit dem Reverse-Engineering-Werkzeug CodeCrawler Daniel Brinkmann 5. Annex: CodeCrawler in der Anwendung Benjamin Hagedorn 6. Quellcodezeilenbasierte Softwarevisualisierung Nebojsa Lazic 7. Landschafts- und Stadtmetaphern zur Softwarevisualisierung Benjamin Hagedorn 8. Visualisierung von Softwareevolution Michael Schöbel 9. Ergebnisse und Ausblick Johannes Bohnet Literaturverzeichnis Autorenverzeichnis
1 Einleitung 1.1 Motivation 1.2 Aufgabenstellung 1.3 Aufbau der Arbeit 2 Fachliches Umfeld 2.1 Grid Computing 2.2 Idle Time Computing 3 Ressourcenpartitionierung 3.1 Ressourcenpartitionierung und Scheduling 3.2 Ressourcenpartitionierung in Idle Time Computing 3.2.1 Administrative Kontrolle der Ressourcen 3.2.2 Mindestgarantien zur Sicherstellung der Lauffähigkeit 3.3 Vorhandene Lösungen und verwandte Arbeiten 3.3.3 Ressourcenmanagement im Globus Toolkit 3.3.4 Ressourcenmanagement in Condor 3.3.5 Das GARA Framework 3.3.6 Distributed Resource Management Application API 3.3.7 Grid Resource Allocation Agreement Protocol 3.3.8 SNAP 3.3.9 OGSI-Agreement 3.3.10 PBS/Maui und andere Batch Systeme 3.3.11 Wide Area Distributed Computing 3.3.12 Weitere verwandte Arbeiten 3.3.13 Überlegungen zum Ressourcenbedarf 4 Ressourcenkontrolle in Desktopbetriebssystemen 4.1 Ressourcen 4.2 Ressourcenpartitionierung unter Linux 4.2.14 Festplattenkapazität 4.2.15 Arbeitsspeicher 4.2.16 Netzwerkbandbreite 4.2.17 CPU Kapazität 4.3 Ressourcenpartitionierung unter Microsoft Windows XP 4.3.18 Festplattenkapazität 4.3.19 Arbeitsspeicher 4.3.20 Netzwerkbandbreite 4.3.21 CPU Kapazität 4.4 Fazit 5 Entwurf und Design des Frameworks 5.1 Entwurfsgrundlage - Komponentenarchitektur 5.2 Architektur 5.2.22 Broker Server 5.2.23 Broker Software auf den Clients 5.2.24 Schnittstellen 5.3 Komponententypmodell 5.4 Ressourcenidentifikation und Ressourcenzuordnung 5.5 Anbindung ans Grid 5.6 Datenbankentwurf 5.7 XML RPC Schnittstelle 6 Implementierung 6.1 Broker Server 6.1.25 Datenbank 6.1.26 Komponenten 6.1.27 Webserverskripte 6.1.28 Database Crawler 6.2 Komponenten 6.2.29 Network 6.2.30 DSCP 6.2.31 Quota 6.2.32 FSF 6.3 Linux Client 6.3.33 Broker Client 6.3.34 Komponenten 6.4 Windows Client 6.5 Abhängigkeiten 7 Evaluierung 7.1 Durchgeführte Test- und Anwendungsfälle 7.1.35 Test der Clientsoftware 7.1.36 Test der Serversoftware 7.1.37 Durchführbare Anwendungsfälle 7.2 Evaluierung der Frameworkimplementierung 7.2.38 Performanz der Serverimplementierung 7.2.39 Zuverlässigkeit der Partitionierungen 7.3 Evaluierung von Traffic Shaping mit iproute2 7.3.40 Szenario 1 7.3.41 Szenario 2 7.3.42 Szenario 3 7.3.43 Fazit 8 Zusammenfassung und Ausblick 8.1 Fazit 8.2 Weiterentwicklung 8.2.44 Weiterentwicklungen auf Entwurfsebene 8.2.45 Weiterentwicklungen auf Implementierungsebene Anhang A: Details zum Datenbankentwurf Anhang B: Bildschirmfotos der Weboberfläche Anhang C: Quellcode Linux Broker Client Anhang D: Inhalt des beiliegenden Datenträgers
Vorwort 1. Einleitung 2. Statische vs. dynamische Analyse 3. Kriterien für den Erfolg statischer Quellcodeanalysemethoden 3.1. Theoretische Vorüberlegungen 3.2. 1. Kriterium: Verfügbarkeit des Quellcodes 3.3. 2. Kriterium: Unterstützung der Programmiersprache 3.4. 3. Kriterium: Zulassung von „echten“ Programmen der Problemdomäne 3.5. 4. Kriterium: Bewältigung der auftretenden Komplexität 3.6. 5. Kriterium: Schutz vor böswilliger Speichermanipulation 3.7. 6. Kriterium: Garantie für die Umgebung des laufenden Prozesses 3.8. Fazit 3.9. Verwandte Arbeiten 4. Bewertung von statischen Methoden für C/C++ typische Programme 4.1. Hintergrund 4.2. Prämissen 4.3. 1. Problemfeld: Programmgröße und Interferenz 4.4. 2. Problemfeld: Semantik 4.5. 3. Problemfeld: Programmfluss 4.6. 4. Problemfeld: Zeigerarithmetik 4.7. Dynamische Konzepte zur Erfüllung des fünften Kriteriums auf Quellcodebasis 4.8. Fazit 4.9. Verwandte Arbeiten 5. Kriterien für den Erfolg dynamischer Ansätze 5.1. Hintergrund 5.2. Verfügbarkeit des Quellcodes 5.3. Unterstützung der Programmiersprache 5.4. Zulassung von „echten“ Programmen aus der Problemdomäne 5.5. Bewältigung der auftretenden Komplexität 5.6. Schutz vor böswilliger Speichermanipulation 5.7. Garantie für die Umgebung des laufenden Prozesses 5.8. Fazit 6. Klassifikation und Evaluation dynamischer Ansätze 6.1. Hintergrund 6.2. Quellcodesubstitution 6.3. Binärcodemodifikation/Binary-Rewriting 6.4. Maschinencodeinterpreter 6.5. Intrusion-Detection-Systeme 6.6. Virtuelle Maschinen/Safe Languages 6.7. Mechanismen zur „Härtung“ von bestehenden Code 6.8. SandBoxing/System-Call-Interposition 6.9. Herkömmliche Betriebssystemmittel 6.10. Access-Control-Lists/Domain-Type-Enforcement 6.11. Fazit 7. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von RealTimeBattle 7.1. Vorstellung von RealTimeBattle 7.2. Charakterisierung des Problems 7.3. Alternative Lösungsvarianten/Rekapitulation 7.4. Übertragung der Ergebnisse statischer Analysemethoden auf RealTimeBattle 7.5. Übertragung der Ergebnisse dynamischer Analysemethoden auf RealTimeBattle 7.5.1. Vorstellung der RSBAC basierten Lösung 7.5.2. Vorstellung der Systrace basierten Lösung 7.6. Fazit 7.7. Verwandte Arbeiten 8. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von Asparagus 8.1. Vorstellung von Asparagus 8.2. Charakterisierung des Problems 8.3. Lösung des Problems 8.4. Fazit 8.5. Verwandte Arbeiten 9. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext vom DCL 9.1. Vorstellung des DCL 9.2. Charakterisierung des Problems 9.3. Experimente im DCL und die jeweilige Lösung 9.3.1. Foucaultsches Pendel 9.3.2. Lego Mindstorm Roboter 9.3.3. Hau den Lukas 9.4. Fazit 9.5. Verwandte Arbeiten 10. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext der semiautomatischen Korrektur von Betriebssystemarchitektur-Übungsaufgaben 10.1. Vorstellung des Übungsbetriebes zur Vorlesung „Betriebssystsemarchitektur 10.2. Charakterisierung des Problems 10.3. Lösungsvorschläge 10.3.1. Lösungsvorschläge für das Authentifizierungs-Problem 10.3.2. Lösungsvorschläge für das Transport-Problem 10.3.3. Lösungsvorschläge für das Build-Problem 10.3.4. Lösungsvorschläge für das Ausführungs-Problem 10.3.5. Lösungsvorschläge für das Ressourcen-Problem 10.3.6. Lösungsvorschläge für das Portabilitäts-Problem 10.4. Fazit 10.5. Verwandte Arbeiten 11. Schlussbetrachtungen Literaturverzeichnis Anhang -create_guardedrobot.sh: Die RealTimeBattle Security Infrastructure -vuln.c: Ein durch Pufferüberlauf ausnutzbares Programm -exploit.c: Ein Beispielexploit für vuln.c. -aufg43.c: Lösung für eine Aufgabe im Rahmen der Betriebssystemarchitektur-Übung -Handout: Sichere Ausführung nicht vertrauenswürdiger Programme
1 Introduction 1.1 Project formulation 1.2 Our contribution 2 Pedagogical Aspect 4 2.1 Modern teaching 2.2 Our Contribution 2.2.1 Autonomous and exploratory learning 2.2.2 Human machine interaction 2.2.3 Short multimedia clips 3 Ontology Aspect 3.1 Ontology driven expert systems 3.2 Our contribution 3.2.1 Ontology language 3.2.2 Concept Taxonomy 3.2.3 Knowledge base annotation 3.2.4 Description Logics 4 Natural language approach 4.1 Natural language processing in computer science 4.2 Our contribution 4.2.1 Explored strategies 4.2.2 Word equivalence 4.2.3 Semantic interpretation 4.2.4 Various problems 5 Information Retrieval Aspect 5.1 Modern information retrieval 5.2 Our contribution 5.2.1 Semantic query generation 5.2.2 Semantic relatedness 6 Implementation 6.1 Prototypes 6.2 Semantic layer architecture 6.3 Development 7 Experiments 7.1 Description of the experiments 7.2 General characteristics of the three sessions, instructions and procedure 7.3 First Session 7.4 Second Session 7.5 Third Session 7.6 Discussion and conclusion 8 Conclusion and future work 8.1 Conclusion 8.2 Open questions A Description Logics B Probabilistic context-free grammars
E-learning is a flexible and personalized alternative to traditional education. Nonetheless, existing e-learning systems for IT security education have difficulties in delivering hands-on experience because of the lack of proximity. Laboratory environments and practical exercises are indispensable instruction tools to IT security education, but security education in con-ventional computer laboratories poses the problem of immobility as well as high creation and maintenance costs. Hence, there is a need to effectively transform security laboratories and practical exercises into e-learning forms. This report introduces the Tele-Lab IT-Security architecture that allows students not only to learn IT security principles, but also to gain hands-on security experience by exercises in an online laboratory environment. In this architecture, virtual machines are used to provide safe user work environments instead of real computers. Thus, traditional laboratory environments can be cloned onto the Internet by software, which increases accessibilities to laboratory resources and greatly reduces investment and maintenance costs. Under the Tele-Lab IT-Security framework, a set of technical solutions is also proposed to provide effective functionalities, reliability, security, and performance. The virtual machines with appropriate resource allocation, software installation, and system configurations are used to build lightweight security laboratories on a hosting computer. Reliability and availability of laboratory platforms are covered by the virtual machine management framework. This management framework provides necessary monitoring and administration services to detect and recover critical failures of virtual machines at run time. Considering the risk that virtual machines can be misused for compromising production networks, we present security management solutions to prevent misuse of laboratory resources by security isolation at the system and network levels. This work is an attempt to bridge the gap between e-learning/tele-teaching and practical IT security education. It is not to substitute conventional teaching in laboratories but to add practical features to e-learning. This report demonstrates the possibility to implement hands-on security laboratories on the Internet reliably, securely, and economically.
1. Design and Composition of 3D Geoinformation Services Benjamin Hagedorn 2. Operating System Abstractions for Service-Based Systems Michael Schöbel 3. A Task-oriented Approach to User-centered Design of Service-Based Enterprise Applications Matthias Uflacker 4. A Framework for Adaptive Transport in Service- Oriented Systems based on Performance Prediction Flavius Copaciu 5. Asynchronicity and Loose Coupling in Service-Oriented Architectures Nikola Milanovic
Dynamics in urban environments encompasses complex processes and phenomena such as related to movement (e.g.,traffic, people) and development (e.g., construction, settlement). This paper presents novel methods for creating human-centric illustrative maps for visualizing the movement dynamics in virtual 3D environments. The methods allow a viewer to gain rapid insight into traffic density and flow. The illustrative maps represent vehicle behavior as light threads. Light threads are a familiar visual metaphor caused by moving light sources producing streaks in a long-exposure photograph. A vehicle’s front and rear lights produce light threads that convey its direction of motion as well as its velocity and acceleration. The accumulation of light threads allows a viewer to quickly perceive traffic flow and density. The light-thread technique is a key element to effective visualization systems for analytic reasoning, exploration, and monitoring of geospatial processes.
Die Kombination von Polymeren mit Peptiden vereint die Eigenschaften beider Stoffklassen miteinander. Dabei können die strukturbildenden Eigenschaften der Peptide genutzt werden, um Polymere zu organisieren. In der vorliegenden Arbeit wurde ein Polymer-Peptid-Konjugat verwendet, das sich in Wasser zu Bändern anordnet. Die treibende Kraft für diesen Prozess ist die Anordnung des Peptidteils zu β-Faltblattstrukturen. Das Polymer-Peptid-Aggregat besitzt einen Peptidkern mit funktionalen Oberflächen, der lateral von einer Polyethylenoxidschale umgeben ist. Durch Änderung der Peptidsequenz war es bisher möglich, die Eigenschaften dieser Fasern zu variieren. In der Arbeit wird ein modularer Ansatz zur vielfältigen Modifizierung einer Polymer-Peptid-Faser entwickelt. So ist es möglich, die Eigenschaften der Fasern einzustellen, ohne die strukturbildende β-Faltblattsequenz verändern zu müssen. Um weitere Funktionen an den Fasern anzubringen, wurde die 1,3-dipolaren Addition verwendet. Diese Reaktion beschreibt die konzertierte Umlagerung eines Azides mit einem Alkin. Sie ist in den meisten Lösungsmitteln unter hohen Ausbeuten durchführbar. Im Rahmen der Arbeit wird die Erzeugung von Aziden untersucht und auf die Polymer-Peptid-Fasern übertragen. Der Diazotransfer stellte dabei die Methode der Wahl dar, so können Azidgruppen aus Aminen gewonnen werden. Unter Verwendung der 1,3-dipolaren Addition konnten verschiedene alkinfunktionale Moleküle kovalent an die azidfunktionalisierten Polymer-Peptid-Fasern gebunden werden. So wurde ein Fluoreszenzfarbstoff an die Fasern gebunden, der eine Abbildung der Fasern mittels konfokaler Mikroskopie erlaubte. Weiterhin wurden die Eigenschaften der Fasern durch Addition dreier carboxylfunktionaler Moleküle modifiziert. Diese Fasern konnten weiter genutzt werden, um Kalzium zu binden. Dabei variierte die Anzahl der gebundenen Kalziumionen in Abhängigkeit der jeweiligen Fasermodifikation erheblich. Weitere Untersuchungen, die Morphologie von Kalziumcarbonatkristallen betreffend, werden aktuell durchgeführt. Die kovalente Anbringung eines reduzierenden Zuckers an die Polymer-Peptid-Fasern erlaubt die Abscheidung von Silber aus Tollens Reagenz. Durch eine Entwicklung analog zur Schwarz-Weiss-Photographie können in nachfolgenden Arbeiten so Silberdrähte in Nanogröße erzeugt werden. An die azidfunktionalen Fasern können weitere funktionale Moleküle angebracht werden, um die Eigenschaften und das Anwendungsspektrum der Polymer-Peptid-Fasern zu erweitern.
Submarine landslides can generate local tsunamis posing a hazard to human lives and coastal facilities. Two major related problems are: (i) quantitative estimation of tsunami hazard and (ii) early detection of the most dangerous landslides. This thesis focuses on both those issues by providing numerical modeling of landslide-induced tsunamis and by suggesting and justifying a new method for fast detection of tsunamigenic landslides by means of tiltmeters. Due to the proximity to the Sunda subduction zone, Indonesian coasts are prone to earthquake, but also landslide tsunamis. The aim of the GITEWS-project (German-Indonesian Tsunami Early Warning System) is to provide fast and reliable tsunami warnings, but also to deepen the knowledge about tsunami hazards. New bathymetric data at the Sunda Arc provide the opportunity to evaluate the hazard potential of landslide tsunamis for the adjacent Indonesian islands. I present nine large mass movements in proximity to Sumatra, Java, Sumbawa and Sumba, whereof the largest event displaced 20 km³ of sediments. Using numerical modeling, I compute the generated tsunami of each event, its propagation and runup at the coast. Moreover, I investigate the age of the largest slope failures by relating them to the Great 1977 Sumba earthquake. Continental slopes off northwest Europe are well known for their history of huge underwater landslides. The current geological situation west of Spitsbergen is comparable to the continental margin off Norway after the last glaciation, when the large tsunamigenic Storegga slide took place. The influence of Arctic warming on the stability of the Svalbard glacial margin is discussed. Based on new geophysical data, I present four possible landslide scenarios and compute the generated tsunamis. Waves of 6 m height would be capable of reaching northwest Europe threatening coastal areas. I present a novel technique to detect large submarine landslides using an array of tiltmeters, as a possible tool in future tsunami early warning systems. The dislocation of a large amount of sediment during a landslide produces a permanent elastic response of the earth. I analyze this response with a mathematical model and calculate the theoretical tilt signal. Applications to the hypothetical Spitsbergen event and the historical Storegga slide show tilt signals exceeding 1000 nrad. The amplitude of landslide tsunamis is controlled by the product of slide volume and maximal velocity (slide tsunamigenic potential). I introduce an inversion routine that provides slide location and tsunamigenic potential, based on tiltmeter measurements. The accuracy of the inversion and of the estimated tsunami height near the coast depends on the noise level of tiltmeter measurements, the distance of tiltmeters from the slide, and the slide tsunamigenic potential. Finally, I estimate the applicability scope of this method by employing it to known landslide events worldwide.
Region-Nation-Europa
(2009)
Politische Theorie hat ihre Zeit und ihren Ort. Die Potsdamer Reihe ‚Region-Nation-Europa’ geht von der Region Berlin-Brandenburg in der neuen Mitte Europas aus. Durch den europäischen Integrationsprozess gibt es tief eingreifende Entscheidungen, die von den Bevölkerungen diskutiert und bestätigt werden müssen. Politische Theorie muss in der Fortschrittskrise einer verstädterten Welt urban aufgeklärte Theorie sein, sie ist ein Produkt der Stadt und nicht der Schule.
This thesis investigates the Casimir effect between plates made of normal and superconducting metals over a broad range of temperatures, as well as the Casimir-Polder interaction of an atom to such a surface. Numerical and asymptotical calculations have been the main tools in order to do so. The optical properties of the surfaces are described by dielectric functions or optical conductivities, which are reviewed for common models and have been analyzed with special weight on distributional properties and causality. The calculation of the Casimir energy between two normally conducting plates (cavity) is reviewed and previous work on the contribution to the Casimir energy due to the surface plasmons, present in all metallic cavities, has been generalized to finite temperatures for the first time. In the field of superconductivity, a new analytical continuation of the BCS conductivity to to purely imaginary frequencies has been obtained both inside and outside the extremely dirty limit of vanishing mean free path. The Casimir free energy calculated from this description was shown to coincide well with the values obtained from the two fluid model of superconductivity in certain regimes of the material parameters. The Casimir entropy in a superconducting cavity fulfills the third law of thermodynamics and features a characteristic discontinuity at the phase transition temperature. These effects were equally encountered in the Casimir-Polder interaction of an atom with a superconducting wall. The magnetic dipole coupling of an atom to a metal was shown to be highly sensible to dissipation and especially to the surface currents. This leads to a strong quenching of the magnetic Casimir-Polder energy at finite temperature. Violations of the third law of thermodynamics are encountered in special models, similar to phenomena in the Casimir-effect between two plates, that are debated controversely. None of these effects occurs in the analog electric dipole interaction. The results of this work suggest to reestablish the well-known plasma model as the low temperature limit of a superconductor as in London theory rather than use it for the description of normal metals. Superconductors offer the opportunity to control the dissipation of surface currents to a great extent. This could be used to access experimentally the low frequency optical response of metals, which is strongly connected to the thermal Casimir-effect. Here, differently from corresponding microwave experiments, energy and momentum are independent quantities. A measurement of the total Casimir-Polder interaction of atoms with superconductors seems to be in reach in today’s microchip-based atom-traps and the contribution due to magnetic coupling might be accessed by spectroscopic techniques
Ein genereller Ansatz zur Charakterisierung von biologischen Systemen bietet die Untersuchung des Metaboloms, dessen Analyse als „Metabolomics“ bezeichnet wird. “Omics”- Technologien haben das Ziel, ohne Selektionskriterien möglichst alle Bestandteile einer biologischen Probe zu detektieren (identifizieren und quantifizieren), um daraus Rückschlüsse auf nicht vorhersehbare und somit neuartige Korrelationen in biologischen Systemen zu ziehen. Ein zentrales Dogma in der Biologie besteht in der Kausalität zwischen Gen – Enzym – Metabolite. Perturbationen auf einer Ebene rufen systemische Antworten hervor, die in einem veränderten Phänotyp münden können. Metabolite sind die Endprodukte von zellulären regulatorischen Prozessen, deren Abundanz durch die Resonanz auf genetische Modifikationen oder Umwelteinflüsse zurückzuführen ist. Zudem repräsentieren Metabolite ultimativ den Phänotyp eines Organismus und haben die Fähigkeit als Biomarker zu fungieren. Die integrale Analyse verschiedenster Stoffwechselwegen wie Krebszyklus, Pentosephosphatzyklus oder Calvinzyklus offeriert die Identifikation von metabolischen Mustern. In dieser Arbeit wurden sowohl das targeted Profiling via GC-TOF-MS als auch das untargeted Profiling via GC-TOF-MS und LC-FT-MS als analytische Strategien genutzt, um biologische Systeme anhand ihrer Metabolite zu charakterisieren und um physiologische Muster als Resonanz auf endogene oder exogene Stimuli zu erkennen. Dabei standen die metabolische, phänotypische und genotypische Plastizität von Pflanzen im Fokus der Untersuchungen. Metabolische Varianzen eines Phänotyps reflektieren die genotyp-abhängige Resonanz des Organismus auf umweltbedingte Parameter (abiotischer und biotischer Stress, Entwicklung) und können mit sensitiven Metabolite Profiling Methoden determiniert werden. Diese Anwendungen haben unter anderem auch zum Begriff des „Environmental Metabolomics“ geführt. In Kapitel 2 wurde der Einfluss biotischer Interaktionen von endophytischen Bakterien auf den Metabolismus von Pappelklonen untersucht; Kapitel 3 betrachtet die metabolische Plastizität von Pflanzen im Freiland auf veränderte biotische Interaktionsmuster (Konkurrenz/Diversität/Artenzusammensetzung); Abschließend wurde in Kapitel 4 der Einfluss von spezifischen genetischen Modifikationen an Peroxisomen und den daraus resultierenden veränderten metabolischen Fluss der Photorespiration dargestellt. Aufgrund der sensitiven Analyse- Technik konnten metabolische Phänotypen, die nicht zwingend in einen morphologischen Phänotyp mündeten, in drei biologischen Systemen identifiziert und in einen stoffwechselphysiologischen Kontext gestellt werden. Die drei untersuchten biologischen Systeme – in vitro- Pappeln, Grünland- Arten (Arrhenatherion-Gesellschaft) und der Modellorganismus (Arabidopsis) – belegten anschaulich die Plastizität des Metabolismus der Arten, welche durch endogene oder exogene Faktoren erzeugt wurden.
Die Induktion antioxidativer Enzyme gilt als eine Möglichkeit, die antioxidative Kapazität von Zellen zu steigern und dadurch mit oxidativem Stress assoziierten Erkrankungen (z. B. Herz-Kreislauf-Erkrankungen, Neurodegeneration, Atherosklerose) vorzubeugen. Ausgehend davon wurde in der vorliegenden Arbeit der Dual-Luciferase-Reportergen-(DLR)-Assay zum Nachweis der Induktion der antioxidativen Enzyme Katalase (CAT), zytosolische Glutathion-Peroxidase (GPX1) und Kupfer-Zink-Superoxid-Dismutase (SOD1) entwickelt. Im Zuge dessen wurden drei Säugetierzelllinien (CaCo2, IEC-18, V79) auf ihre Eignung zur Modellzelllinie untersucht. Aufgrund der Transfektionseffizienz wurde die Fibroblastenzelllinie V79 ausgewählt. Zur Gewährleistung eines hohen Substanzdurchsatzes des DLR-Assays wurden bei der Etablierung Parameter wie Kulturplattenformat, DNA-Menge, Luciferasen-Kinetik berücksichtigt. Nach erfolgreicher Etablierung des Versuchs im 96-Well-Format wurden L-Carnitin, Catechin, Epigallocatechingallat, Genistein, Wasserstoffperoxid (H2O2), Natrium-Ascorbat, Paraquat, Quercetin, 12-O-Tetradecanoylphorbol-13-Acetat (TPA) und Trolox in nicht-zytotoxischen Konzentrationen hinsichtlich der Aktivierung des Ratten-CAT-, des humanen GPX1- und des humanen SOD1-Promotors untersucht. Die Bestimmung der maximal tolerierbaren Behandlungskonzentration erfolgte im Vorfeld mittels Resazurintest. Von den zehn Verbindungen zeichneten sich drei Substanzen als potente Induktoren für die SOD1 und die GPX1 aus. Die 24-stündige Behandlung von mit Reportergenkonstrukten transient transfizierten V79-Zellen mit 100 µM Paraquat resultierte in einer Verdopplung der relativen SOD1-Promotor-Aktivität und einer Erhöhung der relativen GPX1-Promotor-Aktivität auf 1,6 bzw. 1,7. Die Stimulation mit 20 µM Genistein oder 10 µM Quercetin führte wiederum zu einer Verdopplung bis Verdreifachung der relativen SOD1- und GPX1-Promotor-Aktivität. Der Promotor der Rattenkatalase konnte demgegenüber nur durch 50 µM H2O2 aktiviert werden (1,5fach). Für diesen DLR-Assays bieten sich folglich Genistein, Quercetin wie auch H2O2 als Referenzsubstanzen an. Um aber eine qualitative Charakterisierung der einzelnen Verbindungen hinsichtlich ihres Induktionspotentials zu gewährleisten, sollten von allen getesteten Substanzen Dosis-Wirkungskurven aufgenommen werden. Zudem wird für den routinemäßigen Einsatz die Verwendung stabil transfizierter Zellen zur Vermeidung von mit der Transfektion verbundenen experimentellen Schwankungen empfohlen.
Der islamistische Dschihad in Pakistan : geopolitische Aspekte eines multikausalen Konfliktes
(2009)
Das Papier fragt nach den (geopolitischen) Interessen der verschiedenen Akteure, um die bisherige Politik realpolitisch auszuleuchten, die Krisenherde in Pakistan darzustellen und zukünftige (Lösungs-)Szenarien zu entwickeln. Im Zentrum steht die Fragestellung, warum das afghanisch-pakistanische Grenzgebiet als Wurzel des islamistischen Terrors gilt. Mit Hilfe einer geostrategischen Analyse der Landesstruktur erfolgt die Vorstellung der verschiedenen Akteursnetzwerke, die in Pakistan ursächlich für die Etablierung des islamistischen Terrors sind. In einem für die pakistanische Zukunft skeptischen Fazit werden Lösungsansätze für die Hauptkonfliktlinien vorgeschlagen, um die geostrategische Mittellage Pakistans zu stabilisieren.
Die Zielsetzung der vorliegenden Arbeit ist die Beschreibung hydrophober Bodeneigenschaften und deren Auswirkungen auf Oberflächenabfluss und Erosion auf verschiedenen Skalen. Die dazu durchgeführten Untersuchungen fanden auf einer Rekultivierungsfläche im Braunkohlegebiet Welzow Süd (Südostdeutschland) statt. Die Prozesse wurden auf drei Skalen untersucht, die von der Plotskala (1m²) über die Hangskala (300m²) bis zur Betrachtung eines kleinen Einzugsgebietes (4ha) reichen. Der Grad der hydrophoben Bodeneigenschaften wurde sowohl direkt, über die Bestimmung des Kontaktwinkel, als auch indirekt, über die Bestimmung der Persistenz, ermittelt. Dabei zeigte sich, dass der Boden im Winterhalbjahr hydrophil reagierte, während er im Sommerhalbjahr hydrophobe Bodeneigenschaften aufwies. Die Ergebnisse deuten darauf hin, dass ansteigende Bodenwassergehalte, die in der Literatur häufig als Ursache für einen Wechsel der Bodeneigenschaften angegeben werden, auf dieser Fläche nicht zu einem Umbruch der Bodenbedingungen führen. Stattdessen kam es als Folge des Auftauens von gefrorenem Boden zu hydrophilen Bodeneigenschaften, die zu einem Anstieg des Bodenwassergehalts führten. Räumliche Unterschiede zeigten sich in den geomorphologischen Einheiten. Rinnen und Rillen wiesen seltener hydrophobe Eigenschaften als die Zwischenrillenbereiche und Kuppen auf. Diese räumlichen und zeitlichen Variabilitäten wirkten sich auch auf den Oberflächenabfluss aus, der als Abflussbeiwert (ABW: Quotient aus Abfluss und Niederschlag) untersucht wurde. Der ABW liegt auf Böden mit hydrophoben Bodeneigenschaften (ABW=0,8) deutlich höher als bei jenen mit hydrophilen Eigenschaften(ABW=0,2), wie sie im Winter oder auf anderem Substrat vorzufinden sind (diese Werte beziehen sich auf die Plotskala). Betrachtet man die Auswirkungen auf unterschiedlichen Skalen, nimmt der Abflussbeiwert mit zunehmender Flächengröße ab (ABW = 0,8 auf der Plotskala, ABW = 0,5 auf der Hangskala und ABW = 0,2 im gesamten Gebiet), was in den hydrophil reagierenden Rillen und Rinnen auf der Hangskala und dem hydrophilen Substrat im Einzugsgebiet begründet ist. Zur Messung der Erosion wurden verschiedene, zum Teil neu entwickelte Methoden eingesetzt, um eine hohe zeitliche und räumliche Auflösung zu erreichen. Bei einer neu entwickelten Methode wird der Sedimentaustrag ereignisbezogen über eine Waage bestimmt. In Kombination mit einer Kippwaage ermöglicht sie die gleichzeitige Messung des Oberflächenabflusses. Die Messapparatur wurde für Gebiete entwickelt, die eine überwiegend grobsandige Textur aufweisen und nur geringe Mengen Ton und Schluff enthalten. Zusätzlich wurden zwei Lasersysteme zur Messung der räumlichen Verteilung der Erosion eingesetzt. Für die erste Methode wurde ein punktuell messender Laser in einer fest installierten Apparatur über die Fläche bewegt und punktuell Höhenunterschiede in einem festen Raster bestimmt. Durch Interpolation konnten Bereiche mit Sedimentabtrag von Akkumulationsbereiche unterschieden werden. Mit dieser Methode können auch größere Flächen vermessen werden (hier 16 m²), allerdings weisen die Messungen in den Übergangsbereichen von Rinne zu Zwischenrille große Fehler auf. Bei der zweiten Methode wird mit einer Messung ein Quadratmeter mit einer hohen räumlichen Auflösung komplett erfasst. Um ein dreidimensionales Bild zu erstellen, müssen insgesamt vier Aufnahmen von jeweils unterschiedlichen Seiten aufgenommen werden. So lassen sich Abtrag und Akkumulation sehr genau bestimmen, allerdings ist die Messung relativ aufwendig und erfasst nur eine kleine Fläche. Zusätzlich wurde der Sedimentaustrag noch auf der Plotskala erfasst. Die Messungen zeigen, korrespondierend zu den Bodeneigenschaften, große Sedimentausträge während des Sommerhalbjahrs und kaum Austräge im Winter. Weiterhin belegen die Ergebnisse eine größere Bedeutung der Rillenerosion gegenüber der Zwischenrillenerosion für Niederschlagsereignisse hoher Intensität (>25 mm/h in einem zehnminütigem Intervall). Im Gegensatz dazu dominierte die Zwischenrillenerosion bei Ereignissen geringerer Intensität (<20 mm/h in einem zehnminütigem Intervall), wobei mindestens 9 mm Niederschlag in einer Intensität von mindesten 3,6 mm/h nötig sind, damit es zur Erosion kommt. Basierend auf den gemessenen Abflüssen und Sedimentausträgen wurden Regressiongleichungen abgeleitet, die eine Berechnung dieser beiden Prozesse für die untersuchte Fläche ermöglichen. Während die Menge an Oberflächenabfluss einen starken Zusammenhang zu der Menge an gefallenem Niederschlag zeigt (r² = 0,9), ist die Berechnung des ausgetragenen Sedimentes eher ungenau (r² = 0,7). Zusammenfassend beschreibt die Arbeit Einflüsse hydrophober Bodeneigenschaften auf verschiedenen Skalen und arbeitet die Auswirkungen, die vor allem auf der kleinen Skala von großer Bedeutung sind, heraus.
Antiker Orient
(1996)
Im Januar 1995 fand in Potsdam - Hermannswerder eine Studentenkonferenz statt, auf der Studenten unterschiedlicher Fakultäten der Potsdamer Universität eine im Herbst 1994 durchgeführte interdisziplinäre Exkursion auf den Sinai in Diskussionbeiträgen und Vorträgen auswerteten. Die Beiträge erschienen in ARCUS 2. Daneben wurden von Fachwissenschaftlern einführende Vorträge zu den Themen Archäologie und Epigraphik im Orient gehalten, die im vorliegenden Heft veröffentlicht werden sollen. Sie reichen von Grabungsberichten, allgemeinen Problemen der Archäologie und Landeskunde bis zu modernen Methoden epigraphischer Arbeit. Mit diesen Beiträgen wurde den Teilnehmern der Tagung ein Einblick in die Breite der Orient-Forschung gegeben. Die Tagung wurde durch das Ministerium für Wissenschaft, Forschung und Kultur des Landes Brandenburg unterstützt.
Sinai
(1995)
Vorwort: In der Zeit vom 3o. September 1994 bis zum 2 1 . Oktober 1994 fand eine Exkursion auf den Sinai statt, die Studenten aus den Bereichen Geschichte, Geographie und Sozialwissenschaften vereinte. Ziel der Unternehmung war es, die Studenten mit der Geographie des Sinai vertraut zu machen, sie in die historischen Gegebenheiten der Landschaft und in archäologische Forschungen einzuführen und den sich abzeichnenden Wandel dieser Region zu beobachten. In Kairo wurde den Studenten eine Einführung in die Probleme des Landes gegeben: Dr. Nastansky, der Leiter des DAAD Kairo, sprach über das Bildungswesen in Ägypten, Dr. Claus von der Gesellschaft für Technische Zusammenarbeit äußerte sich zu Fragen der Entwicklungshilfe, Dr. Pflugrad - Abdel Aziz über deutsche Architekten in Ägypten und Volkmar Wenzel von der deutschen Botschaft zu Fragen der Innen- und Außenpolitik Ägyptens. Auch nach der Exkursion konnten die gewonnenen Erkenntnisse und Erfahrungen durch Vorträge und Diskussionen vertieft werden. Dr. Großmann vom Deutschen Archäologischen Institut sprach zur Architektur auf dem Sinai, Sherif Algohary von der Ägyptischen Atomenergiebehörde zu alternativen Wohn- und Lebensformen in Ägypten und Prof. Kilany, der Vizepräsident der Grünen Partei Ägyptens, zur Umweltsituation des Landes. Zwischen diesen Veranstaltungen gab es Zeit, sich mit den Problemen der 17 Millionenstadt vertraut zu machen, Denkmäler und Museen kennenzulernen und erste Kontakte zu knüpfen. Die Exkursion in Richtung Osten begann mit der Besichtigung einer mittelgroßen Stadt nordöstlich von Kairo, die - in der Wüste neugebaut - aber nicht bezogen war. Das war Anlaß, über Infrastruktur, Planungsansätze und Zielvorstellungen zu diskutieren. Auch die bei der Stadt Bilbeis gelegene unbrauchbar gewordene Schleusenanlage forderte das Nachdenken über den Umgang mit Bauten der Infrastruktur heraus. Der Aufenthalt in Zagazig - einer im Ostdelta gelegenen Großstadt - wurde zu einer Begegnung mit der fünftausendjährigen Geschichte Ägyptens. Der Besuch bei Handwerkern, die wie vor Tausenden von Jahren ihre Krüge herstellen und ihre Ziegel streichen und die Tempelanlage von Teil Basta einerseits, eine moderne Ziegelei und die Einladung der Landwirtschaftlichen Fakultät der Universität andererseits, machen das Spannungsfeld deutlich, in dem Ägypten und Ägypter heute leben. Diese Eindrücke wurden durch den Besuch der riesigen Tempelanlage von Tanis und das in der zweiten Hälfte des 19. Jahrhundert entstände Ismailiya verstärkt. Die eigentliche Sinai-Exkursion erfolgte mit der Aufteilung in Gruppen. Ein Teil befaßte sich, von Kantara ausgehend, mit der speziellen Problematik des Nordsinai, mit dem Suez-Kanal, mit dem Bau des zur Bewässerung dienenden Friedenskanals und dem sozialen Wandel in dieser Region. Eine zweite Gruppe widmete sich der Lebensweise der Beduinen, der Veränderung ihrer Lebenslage und stellte sich kritisch den Problemen des anwachsenden Tourismus. Andere verfolgten Fragen der politischen Entwicklung auf dem Sinai, insbesondere in dem Spannungsfeld zwischen dem arabisch-nationalbewußten Ägypten und dem nicht weniger selbstbewußten Israel. Daß es sich dabei nicht um einen abgeschlossenen Prozeß handelt, macht nicht nur die jüngste Geschichte deutlich, sondern wurde auch jedem Teilnehmer klar, der z.T. im Schutz der Polizei das Land bereiste. Die Exkursion wurde aus Mitteln des Deutschen Akademischen Austauschdienstes und der Universität Potsdam finanziert. Mit ihr sollte das Ziel erreicht werden, die Grundlage für weitere wissenschaftliche Arbeiten zu legen. Der wesentliche Gewinn für jeden lag darin, daß ein unmittelbarer Kontakt zu den Bewohnern des Landes möglich war, der durch eine zuvor erarbeitete Aufgabenstellung zu einer konkreten Erfahrung wurde.
Inhalt: 1. CHARAKTER DER ANLAGE 2. AUFGABENSTELLUNG 3. ZIEL DER ARBEIT 4. ANTIKE QUELLEN 5. FORSCHUNGSGESCHICHTE 6. VERMESSUNG DER ANLAGE (Blatt 1) 7. BESTANDSAUFNAHME (Blatt 2) 8. GRABUNGSARBEITEN 8.1 Die Plana - schichtenweises Abtragen (Blätter 2, 3, 4) 8.2 Anlegen von Schnitten (Blätter 5, 6, 7) 8.3 Zeichnen der Profile (Blätter 8, 9, 10) 8.4 Beschreibung 9. ARCHITEKTURELEMENTE 9.1. Architrave (Blatt 11) 9.2. Säulenfragmente (Blatt 12) 9.3. Hohlkehlen, Steine mit dem Uräusschlangenmotiv und andere Architekturelemente (Blätter 11, 13, 14, 15) 9.4. Fundamentsteine ( Blatt 16) 10. SKULPTUREN (Blätter 17, 18, 19) 11. KLEINFUNDE (Blatt 20) 12. SONSTIGE FUNDE (Blätter 21, 22, 23) 13. KERAMIK 13.1. Vereinfachte Keramikbearbeitung (Blätter 24, 25) 13.2. Verfeinerte Methode der Keramikbearbeitung (Blatt 26) 13.3. Vollständige Keramikgefäße 14. FOTOARBEITEN 15. REKONSTRUKTION
Erster Deutscher IPv6 Gipfel
(2008)
Inhalt: KOMMUNIQUÉ GRUßWORT PROGRAMM HINTERGRÜNDE UND FAKTEN REFERENTEN: BIOGRAFIE & VOTRAGSZUSAMMENFASSUNG 1.) DER ERSTE DEUTSCHE IPV6 GIPFEL AM HASSO PLATTNER INSTITUT IN POTSDAM - PROF. DR. CHRISTOPH MEINEL - VIVIANE REDING 2.) IPV6, ITS TIME HAS COME - VINTON CERF 3.) DIE BEDEUTUNG VON IPV6 FÜR DIE ÖFFENTLICHE VERWALTUNG IN DEUTSCHLAND - MARTIN SCHALLBRUCH 4.) TOWARDS THE FUTURE OF THE INTERNET - PROF. DR. LUTZ HEUSER 5.) IPV6 STRATEGY & DEPLOYMENT STATUS IN JAPAN - HIROSHI MIYATA 6.) IPV6 STRATEGY & DEPLOYMENT STATUS IN CHINA - PROF. WU HEQUAN 7.) IPV6 STRATEGY AND DEPLOYMENT STATUS IN KOREA - DR. EUNSOOK KIM 8.) IPV6 DEPLOYMENT EXPERIENCES IN GREEK SCHOOL NETWORK - ATHANASSIOS LIAKOPOULOS 9.) IPV6 NETWORK MOBILITY AND IST USAGE - JEAN-MARIE BONNIN 10.) IPV6 - RÜSTZEUG FÜR OPERATOR & ISP IPV6 DEPLOYMENT UND STRATEGIEN DER DEUTSCHEN TELEKOM - HENNING GROTE 11.) VIEW FROM THE IPV6 DEPLOYMENT FRONTLINE - YVES POPPE 12.) DEPLOYING IPV6 IN MOBILE ENVIRONMENTS - WOLFGANG FRITSCHE 13.) PRODUCTION READY IPV6 FROM CUSTOMER LAN TO THE INTERNET - LUTZ DONNERHACKE 14.) IPV6 - DIE BASIS FÜR NETZWERKZENTRIERTE OPERATIONSFÜHRUNG (NETOPFÜ) IN DER BUNDESWEHR HERAUSFORDERUNGEN - ANWENDUNGSFALLBETRACHTUNGEN - AKTIVITÄTEN - CARSTEN HATZIG 15.) WINDOWS VISTA & IPV6 - BERND OURGHANLIAN 16.) IPV6 & HOME NETWORKING TECHINCAL AND BUSINESS CHALLENGES - DR. TAYEB BEN MERIEM 17.) DNS AND DHCP FOR DUAL STACK NETWORKS - LAWRENCE HUGHES 18.) CAR INDUSTRY: GERMAN EXPERIENCE WITH IPV6 - AMARDEO SARMA 19.) IPV6 & AUTONOMIC NETWORKING - RANGANAI CHAPARADZA 20.) P2P & GRID USING IPV6 AND MOBILE IPV6 - DR. LATIF LADID
Contents 1. Styling for Service-Based 3D Geovisualization Benjamin Hagedorn 2. The Windows Monitoring Kernel Michael Schöbel 3. A Resource-Oriented Information Network Platform for Global Design Processes Matthias Uflacker 4. Federation in SOA – Secure Service Invocation across Trust Domains Michael Menzel 5. KStruct: A Language for Kernel Runtime Inspection Alexander Schmidt 6. Deconstructing Resources Hagen Overdick 7. FMC-QE – Case Studies Stephan Kluth 8. A Matter of Trust Rehab Al-Nemr 9. From Semi-automated Service Composition to Semantic Conformance Harald Meyer
Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator.
Duplicate detection consists in determining different representations of real-world objects in a database. Recent research has considered the use of relationships among object representations to improve duplicate detection. In the general case where relationships form a graph, research has mainly focused on duplicate detection quality/effectiveness. Scalability has been neglected so far, even though it is crucial for large real-world duplicate detection tasks. In this paper we scale up duplicate detection in graph data (DDG) to large amounts of data and pairwise comparisons, using the support of a relational database system. To this end, we first generalize the process of DDG. We then present how to scale algorithms for DDG in space (amount of data processed with limited main memory) and in time. Finally, we explore how complex similarity computation can be performed efficiently. Experiments on data an order of magnitude larger than data considered so far in DDG clearly show that our methods scale to large amounts of data not residing in main memory.
"Der 8. Mai hat es in sich. Es ist aber nicht nur die Geschichte. Die Woche vom 8. Mai war in diesem Jahr die 'Woche der Wahrheit' im Bundestag, eine Kristallkugel, die einen düsteren Blick in die Zukunft erlaubt. Das wurde durch zwei Ereignisse klar, die etwas verband, ohne dass sie zusammen geplant waren. [...]"
"Nach der Gründung der DDR war es eine Gruppe deutscher Antifaschisten, die an der Spitze der diplomatischen Missionen des neuen Staates auch einen neuen Typ deutscher Repräsentanten verkörperten. Fortan waren es nicht nur ehemalige Mitarbeiter des nationalsozialistischen AA, die nun für Bonn auf internationalem Parkett agierten, sondern angesehene Antifaschisten [...]"
US-Präsident Barack Obama hat die ersten hundert Tage seiner Administration hinter sich. Wie Alexander Höse zeigt, waren diese von einigen Höhen und Tiefen gekennzeichnet; allein die globale Finanzkrise hat ihren Beitrag dazu geleistet. Der Autor gibt einen Überblick über Obamas vermeintlich neue Politik und zeigt, dass sich so viel doch nicht geändert hat.
Zeichnet sich die Außenpolitik der Großen Koalition durch „mangelndes Profil“ aus? Marieluise Beck belegt dies durch die deutsche Reaktion auf die Initiative für eine atomwaffenfreie Welt des US-Präsidenten. Auch bei den Debatten um Menschenrechte, den außenpolitischen Umgang mit China und Russland sowie die Verwendung von selektiven Sanktionen ist die Große Koalition den Anforderungen nicht gewachsen.
Kooperative Beziehungen zu Russland sind angesichts der politisch-wirtschaftlichen Interessenlage, der geopolitischen Realitäten im Osten Europas und des geschichtlichen Hintergrundes in der deutschen politischen Klasse Konsens. Mit dem Begriff der strategischen Partnerschaft werden die deutsch-russischen Beziehungen immer wieder charakterisiert, d. h. diese Kooperation soll weit über die normalen Interessen Deutschlands hinausgehen und eine globalpolitische Dimension erreichen.
Die deutsche Außenpolitik hat seit dem 19. Jahrhundert bis zur Gegenwart viele Veränderungen erlebt. Lange stand Deutschland in einem angespannten Verhältnis zu den europäischen Ordnungen, doch nun ist es ein wichtiger Akteur der internationalen Gemeinschaft. Manfred Görtemaker, Professor für Neuere Geschichte aus Potsdam, zeichnet die wichtigsten Stationen dieser Entwicklung in seinem Beitrag nach.
Deutschland ist wegen seiner verlässlichen Außenpolitik ein weltweit angesehener Partner. Jedoch gelingt es der deutschen Außenpolitik momentan nicht, mit den Entwicklungen der globalisierten Welt Schritt zu halten. Bei wichtigen Themen hat die deutsche Regierung zu selten versucht, Stellung zu beziehen. Die Fähigkeit zur friedlichen Konfliktlösung muss Hauptanliegen unserer Außenpolitik sein. Als Grundlage dafür muss ein ständiger Dialog auch mit den Ländern, die unsere Werte nicht teilen, vorangetrieben werden.
Der Koordinator für deutsch-amerikanische Zusammenarbeit im Auswärtigen Amt, Karsten Voigt, attestiert der Außenpolitik der Großen Koalition eine erfolgreiche, solide Arbeit. Diese setzt die international geschätzte deutsche Kontinuität und Verlässlichkeit fort; auch in den zuletzt als schwierig empfundenen Beziehungen zu Russland und den USA.
Europäische Union als globale Macht : Plädoyer für eine wertbestimmte interregionale Ordnungsmacht
(2009)
Viele betrachten die EU als einen behäbigen Koloss, den widerstreitende Interessen lähmen. Der Autor weist die Kritiker jedoch in ihre Schranken. In seinem flammenden Plädoyer für die EU veranschaulicht er ihre positive Wirkung nach außen. Dabei kommt er zu dem Schluss, dass die Aufgaben Europas als universale Wertegemeinschaft im Bereich des Krisenmanagements und der Friedensstiftung liegen.
Dass die Große Koalition die Kontinuität deutscher Außenpolitik fortsetzt, ist für den Autor, verteidigunspolitischer Sprecher von DIE LINKE, ein Zeichen der Stagnation, sogar des Versagens. Er wirft der Bundesregierung Einfallslosigkeit, mangelndes Engagement und kalte Interessenpolitik vor. Doch neben der umfassenden Kritik werden auch neue Lösungsansätze vorgestellt, die sich auf Erwartungen an die neue US-Administration stützen.
Wie stabil ist die Außenpolitik der Großen Koalition? Aufgrund ihrer Position als stellvertretende außenpolitische Sprecherin der SPD ist es der Autorin möglich, neben den Gemeinsamkeiten auch die entscheidenden Unterschiede zu beleuchten. Vor dem Hintergrund mehrerer Beispiele, wie dem EU-Beitritt der Türkei, stellt sie den Konsens zwischen CDU/ CSU und SPD als fragil heraus.
"Deutschland ist schwer vermittelbar. Deutsche Kulturaußenpolitik tut, was sie kann. Das Goethe-Institut kämpft so für die globale Friedensmacht Deutschland in aller Herren Länder. Beim satzungsgemäß gestellten Ziel der 'Vermittlung eines umfassenden Deutschlandbildes' fällt ihm in seinem Internet-Glossar zu Deutschland dann aber für den Buchstaben C nur 'Cluster' ein. Vielleicht, weil es den Deutschen an 'Charisma' fehlt? [...]"
Thailand in der Dauerkrise
(2009)
Mit dem erzwungenen Abbruch des ASEAN-Gipfels im April 2009 erreichte der politische Machtkampf in Thailand einen neuen Höhepunkt. Trotz des Rückzuges der Aufständischen ist kein Ende des Konflikts abzusehen. Die erhoffte politische Ruhe mit der Wahl Abhisit Vejjajivas zum neuen thailändischen Regierungschef hat sich in dem tief gespaltenen Land nicht eingestellt.
Schwarz-Rot vertritt wie keine andere deutsche Regierung vor ihr selbstbewusst deutsche und europäische Interessen, ohne dieses Selbstbewusstsein bemüht zur Schau zu stellen. Deutschland hat in den vergangenen Jahren ganz selbstverständlich die Rolle des Antreibers europäischer Politik für sich reklamiert. Jedoch erwiesen sich Merkel und Steinmeier dabei mehr als realistische Pragmatiker denn als Visionäre.
Contents: Artem Polyvanny, Sergey Smirnow, and Mathias Weske The Triconnected Abstraction of Process Models 1 Introduction 2 Business Process Model Abstraction 3 Preliminaries 4 Triconnected Decomposition 4.1 Basic Approach for Process Component Discovery 4.2 SPQR-Tree Decomposition 4.3 SPQR-Tree Fragments in the Context of Process Models 5 Triconnected Abstraction 5.1 Abstraction Rules 5.2 Abstraction Algorithm 6 Related Work and Conclusions
The complex system of strike-slip and thrust faults in the Alborz Mountains, Northern Iran, are not well understood yet. Mainly structural and geomorphic data are available so far. As a more extensive base for seismotectonic studies and seismic hazard analysis we plan to do a comprehensive seismic moment tensor study also from smaller magnitudes (M < 4.5) by developing a new algorithm. Here, we present first preliminary results.
It has always been enigmatic which processes control the accretion of the North American terranes towards the Pacific plate and the landward migration of the San Andreas plate boundary. One of the theories suggests that the Pacific plate first cools and captures the uprising mantle in the slab window, and then it causes the accretion of the continental crustal blocks. The alternative theory attributes the accretion to the capture of Farallon plate fragments (microplates) stalled in the ceased Farallon-North America subduction zone. Quantitative judgement between these two end-member concepts requires a 3D thermomechanical numerical modeling. However, the software tool required for such modeling is not available at present in the geodynamic modeling community. The major aim of the presented work is comprised basically of two interconnected tasks. The first task is the development and testing of the research Finite Element code with sufficiently advanced facilities to perform the three-dimensional geological time scale simulations of lithospheric deformation. The second task consists in the application of the developed tool to the Neogene deformations of the crust and the mantle along the San Andreas Fault System in Central and northern California. The geological time scale modeling of lithospheric deformation poses numerous conceptual and implementation challenges for the software tools. Among them is the necessity to handle the brittle-ductile transition within the single computational domain, adequately represent the rock rheology in a broad range of temperatures and stresses, and resolve the extreme deformations of the free surface and internal boundaries. In the framework of this thesis the new Finite Element code (SLIM3D) has been successfully developed and tested. This code includes a coupled thermo-mechanical treatment of deformation processes and allows for an elasto-visco-plastic rheology with diffusion, dislocation and Peierls creep mechanisms and Mohr-Coulomb plasticity. The code incorporates an Arbitrary Lagrangian Eulerian formulation with free surface and Winkler boundary conditions. The modeling technique developed is used to study the aspects influencing the Neogene lithospheric deformation in central and northern California. The model setup is focused on the interaction between three major tectonic elements in the region: the North America plate, the Pacific plate and the Gorda plate, which join together near the Mendocino Triple Junction. Among the modeled effects is the influence of asthenosphere upwelling in the opening slab window on the overlying North American plate. The models also incorporate the captured microplate remnants in the fossil Farallon subduction zone, simplified subducting Gorda slab, and prominent crustal heterogeneity such as the Salinian block. The results show that heating of the mantle roots beneath the older fault zones and the transpression related to fault stepping, altogether, render cooling in the slab window alone incapable to explain eastward migration of the plate boundary. From the viewpoint of the thermomechanical modeling, the results confirm the geological concept, which assumes that a series of microplate capture events has been the primary reason of the inland migration of the San Andreas plate boundary over the recent 20 Ma. The remnants of the Farallon slab, stalled in the fossil subduction zone, create much stronger heterogeneity in the mantle than the cooling of the uprising asthenosphere, providing the more efficient and direct way for transferring the North American terranes to Pacific plate. The models demonstrate that a high effective friction coefficient on major faults fails to predict the distinct zones of strain localization in the brittle crust. The magnitude of friction coefficient inferred from the modeling is about 0.075, which is far less than typical values 0.6 – 0.8 obtained by variety of borehole stress measurements and laboratory data. Therefore, the model results presented in this thesis provide additional independent constrain which supports the “weak-fault” hypothesis in the long-term ongoing debate over the strength of major faults in the SAFS.
Inhalt: 1. Einleitung 2. Fragestellungen 3. Methoden 3.1 Methodisches Vorgehen: Interdisziplinäre Trachealkanülenentwöhnung und Dekanülierungsentscheidung im Basler Ansatz 3.2 Methodisches Vorgehen: Probanden und Messverfahren 4. Ergebnisse 4.1 Effektivität und Effizienz des multidisziplinären Ansatzes: Dekanülierungs- und Komplikationsraten und Therapiedauer bis zur Dekanülierung 4.2 Einfluss der Dekanülierung auf den Rehabilitationsverlauf funktioneller Fähigkeiten: Vergleich der funktionellen Selbständigkeit vor vs. nach der Dekanülierung 4.3 Entwicklung der Schluckfunktion und oralen Nahrungsaufnahme nach der Dekanülierung 5. Diskussion 6. Fazit 7. Literatur 8. Danksagung
Inhalt: 1. Einleitung 1.1 Blickbewegungen beim Lesen 1.2 Kognitive Kontrolle und verteilte Verarbeitung 2. Fragestellungen und Hypothesen 3. Methoden 3.1 Probanden 3.2 Material 3.3 Durchführung und Auswertung 4. Ergebnisse 4.1 Unterschiede in Effekten der Wortvorhersagbarkeit 4.2 Unterschiede in Effekten der Wortfrequenz 5. Diskussion 6. Literatur
Inhalt: 1. Einleitung 2. Hintergrund 2.1 Die prosodische Organisation des Deutschen 2.2 Implikationen für den Erwerb der Wortprosodie im Deutschen 3. Methode 3.1 Datenerhebung 3.2 Empirische Analyse 4. Ergebnisse: Die Entwicklung des Prosodischen Wortes im Deutschen 5. Analyse der empirischen Daten 5.1 Grundannahmen 5.2 Analyse der Entwicklungsstufen 6. Zusammenfassung und Diskussion 7. Literatur
Inhalt: 1. Einführung 1.1 Methoden zur Untersuchung sprachlicher Fähigkeiten 1.2 Die Anfänge der Erforschung von Mehrsprachigkeit 2. Funktionelle Bildgebung 2.1 Einfluss des Erwerbsalters 2.2 Einfluss der Sprachkompetenz 3. Elektrophysiologische Daten 3.1 Einfluss des Erwerbsalters 3.2 Einfluss der Sprachkompetenz 4. Neurokognitive Modelle 4.1 Lexikalisch-semantische Modelle 4.2 Lexikalisch-Grammatikalisches Modell 4.3 Implizit-Explizites Modell 5. Schlussfolgerung 6. Literatur
"Spektrum Patholinguistik" (Band 2) ist der Tagungsband zum 2. Herbsttreffen Patholinguistik, das der Verband für Patholinguistik (vpl) e.V. am 22.11.2008 an der Universität Potsdam veranstaltet hat. Zum Schwerpunktthema "Ein Kopf - Zwei Sprachen: Mehrsprachigkeit in Forschung und Therapie" sind die drei Hauptvorträge und vier Abstracts von Posterpräsentationen veröffentlicht. Desweiteren enthält der Tagungsband freie Beiträge, u.a. zu Satzverarbeitung und Agrammatismus, Lesestrategien und LRS, Prosodie-Entwicklung, kindlichen Aphasien, Dysphagie-Therapie sowie zu kognitiven Defiziten bei älteren Menschen.
Übergewicht und Adipositas führen zu Insulinresistenz und erhöhen deutlich das Risiko für die Entwicklung von Typ-2-Diabetes und kardiovaskulären Erkrankungen. Sowohl Adipositas als auch die Suszeptibilität gegenüber Diabetes sind zu einem erheblichen Teil genetisch determiniert. Die relevanten Risikogene, deren Interaktion mit der Umwelt, insbesondere mit Bestandteilen der Nahrung, und die Pathomechanismen, die zur Insulinresistenz und Diabetes führen, sind nicht vollständig aufgeklärt. In der vorliegenden Arbeit sollte durch Genexpressionsanalysen des weißen Fettgewebes (WAT) und der Langerhansschen Inseln die Entstehung und Progression von Adipositas und Typ-2-Diabetes untersucht werden, um relevante Pathomechanismen und neue Kandidatengene zu identifizieren. Zu diesem Zweck wurden Diät-Interventionsstudien mit NZO- und verwandten NZL-Mäusen, zwei polygenen Mausmodellen für das humane metabolische Syndrom, durchgeführt. Eine kohlenhydrathaltige Hochfett-Diät (HF: 14,6 % Fettanteil) führte in beiden Mausmodellen zu früher Adipositas, Insulinresistenz und Typ 2 Diabetes. Eine fettreduzierte Standarddiät (SD: 3,3 % Fettanteil), welche die Entstehung von Adipositas und Diabetes stark verzögert, sowie eine diabetesprotektive kohlenhydratfreie Hochfett-Diät (CHF: 30,2 % Fettanteil) dienten als Kontrolldiäten. Mit Hilfe der Microarray-Technologie wurden genomweite Expressionsprofile des WAT erstellt. Pankreatische Inseln wurden durch laserbasierte Mikropräparation (Laser Capture Microdissection; LCM) isoliert und ebenfalls hinsichtlich ihres Expressionsprofils analysiert. Differenziell exprimierte Gene wurden durch Real-Time-PCR validiert. Im WAT der NZO-Maus bewirkte die HF-Diät eine reduzierte Expression nukleärer Gene der oxidativen Phosphorylierung und von lipogenen Enzymen. Dies deutet auf eine inadäquate Fettspeicherung und -verwertung in diesen Tieren hin. Die Reduktion in der Fettspeicherung und -oxidation ist spezifisch für das adipöse NZO-Modell und konnte bei der schlanken SJL Maus nicht beobachtet werden, was auf eine mögliche Beteiligung an der Entstehung der Insulinresistenz hinweist. Zusätzlich wurde bestätigt, dass die Expansion des Fettgewebes bei der adipösen NZO-Maus eine zeitlich verzögerte Infiltration von Makrophagen in das WAT und dort eine lokale Immunantwort auslöst. Darüber hinaus wurde die Methode der LCM etabliert und zur Gewinnung hochangereicherter RNA aus den Langerhansschen Inseln eingesetzt. In erstmalig durchgeführten genomweiten Expressionsanalysen wurde zu einem frühen Zeitpunkt in der Diabetesentwicklung der Einfluss einer diabetogenen HF-Diät und einer diabetesprotektiven CHF-Diät auf das Expressionsprofil von pankreatischen Inselzellen verglichen. Im Gegensatz zum WAT bewirkt die diabetogene HF-Diät in Inselzellen einerseits, eine erhöhte Expression von nukleären Genen für die oxidative Phosphorylierung und andererseits von Genen, die mit Zellproliferation assoziiert sind. Zudem wurden 37 bereits annotierte Gene identifiziert, deren differenzielle Expression mit der Diabetesentwicklung korreliert. Das Peptidhormon Cholecystokinin (Cck, 11,8-fach erhöht durch die HF) stellt eines der am stärksten herauf regulierten Gene dar. Die hohe Anreicherung der Cck-mRNA in Inselzellen deutet auf eine bisher unbekannte Funktion des Hormons in der Regulation der Inselzellproliferation hin. Der Transkriptionsfaktor Mlxipl (ChREBP; 3,8-fach erniedrigt durch die HF) stellt in Langerhansschen Inseln eines der am stärksten herunter regulierten Gene dar. Ferner wurde ChREBP, dessen Funktion als glucoseregulierter Transkriptionsfaktor für lipogene Enzyme bislang in der Leber, aber nicht in Inselzellen nachgewiesen werden konnte, erstmals immunhistochemisch in Inselzellen detektiert. Dies deutet auf eine neue, bisher unbekannte regulatorische Funktion von ChREBP im Glucosesensor-Mechanismus der Inselzellen hin. Eine durchgeführte Korrelation der mit der Diabetesentwicklung assoziierten, differenziell exprimierten Inselzellgene mit Genvarianten aus humanen genomweiten Assoziationsstudien für Typ-2-Diabetes (WTCCC, Broad-DGI-T2D-Studie) ermöglichte die Identifizierung von 24 neuartigen Diabetes-Kandidatengenen. Die Ergebnisse der erstmals am polygenen NZO-Mausmodell durchgeführten genomweiten Expressionsuntersuchungen bestätigen bisherige Befunde aus Mausmodellen für Adipositas und Diabetes (z.B. ob/ob- und db/db-Mäuse), zeigen in einigen Fällen aber auch Unterschiede auf. Insbesondere in der oxidativen Phosphorylierung könnten die Ergebnisse relevant sein für das Verständnis der Pathogenese des polygen-bedingten humanen metabolischen Syndroms.
This thesis presents investigations on sediments from two African lakes which have been recording changes in their surrounding environmental and climate conditions since more than 200,000 years. Focus of this work is the time of the last Glacial and the Holocene (the last ~100,000 years before present [in the following 100 kyr BP]). One important precondition for this kind of research is a good understanding of the present ecosystems in and around the lakes and of the sediment formation under modern climate conditions. Both studies therefore include investigations on the modern environment (including organisms, soils, rocks, lake water and sediments). A 90 m long sediment sequence was investigated from Lake Tswaing (north-eastern South Africa) using geochemical analyses. These investigations document alternating periods of high detrital input and low (especially autochthonous) organic matter content and periods of low detrital input, carbonatic or evaporitic sedimentation and high autochthonous organic matter content. These alternations are interpreted as changes between relatively humid and arid conditions, respectively. Before c. 75 kyr BP, they seem to follow changes in local insolation whereas afterwards they appear to be acyclic and are probably caused by changes in ocean circulation and/or in the mean position of the Inter-Tropical Convergence Zone (ITCZ). Today, these factors have main influence on precipitation in this area where rainfall occurs almost exclusively during austral summer. All modern organisms were analysed for their biomarker and bulk organic and compound-specific stable carbon isotope composition. The same investigations on sediments from the modern lake floor document the mixed input of the investigated individual organisms and reveal additional influences by methanotrophic bacteria. A comparison of modern sediment characteristics with those of sediments covering the time 14 to 2 kyr BP shows changes in the productivity of the lake and the surrounding vegetation which are best explained by changes in hydrology. More humid conditions are indicated for times older than 10 kyr BP and younger than 7.5 kyr BP, whereas arid conditions prevailed in between. These observations agree with the results from sediment composition and indications from other climate archives nearby. The second lake study deals with Lake Challa, a small, deep crater lake on the foot of Mount Kilimanjaro. In this lake form mm-scale laminated sediments which were analyses with micro-XRF scanning for changes in the element composition. By comparing these results with investigations on thin sections, results from ongoing sediment trap studies, meteorological data, and investigations on the surrounding rocks and soils, I develop a model for seasonal variability in the limnology and sedimentation of Lake Challa. The lake appears to be stratified during the warm rain seasons (October – December and March – May) during which detrital material is delivered to the lake and carbonates precipitate. On the lake floor forms a dark lamina with high contents of Fe and Ti and high Ca/Al and low Mn/Fe ratios. Diatoms bloom during the cool and windy season (June – September) when mixing down to c. 60 m depth provides easily bio-available nutrients. Contemporaneously, Fe and Mn-oxides are precipitating which cause high Mn/Fe ratios in the light diatom-rich laminae of the sediments. Trends in the Mn/Fe ratio of the sediments are interpreted to reflect changes in the intensity or duration of seasonal mixing in Lake Challa. This interpretation is supported by parallel changes in the organic matter and biogenic silica content observed in the 22 m long profile recovered from Lake Challa. This covers the time of the last 25 kyr BP. It documents a transition around 16 kyr BP from relatively well-mixed conditions with high detrital input during glacial times to stronger stratified conditions which are probably related to increasing lake levels in Challa and generally more humid conditions in East Africa. Intensified mixing is recorded for the time of the Younger Dryas and the period between 11.4 and 10.7 kyr BP. For these periods, reduced intensity of the SW monsoon and intensified NE monsoon are reported from archives of the Indian-Asian Monsoon region, arguing for the latter as a probable source for wind mixing in Lake Challa. This connection is probably also responsible for contemporaneous events in the Mn/Fe ratios of the Lake Challa sediments and in other records of northern hemisphere monsoon intensity during the Holocene and underlines the close interaction of global low latitude atmospheric circulation.
The bibliographic project 'Renaissance Linguistics Archive' (R.L.A.) aimed at establishing a comprehensive database of secondary sources covering the linguistics ideas developed by Renaissance scholars in Europe. The database project, founded in 1986 by Mirko Tavoni (Pisa) and in 1994 transferred to Gerda Haßler (Potsdam), resulted so far in three print-outs, each of them counting 1000 records. It is the aim of this website to publish the results of the collective efforts undertaken thus far (R.L.A. 1.0, 1986-1999).
Inhalt: 1. Untersuchungsfeld 2. Allgemeine Angaben zu den befragten Kommunen 2.1 Haushaltsdefizit/-überschuss 2.2. Schuldenstand zum 31.12.2004 und Zinsausgaben 2.3. Durchschnittsverzinsung 3. Kommunales Debt Management 3.1. Zielsetzungen 3.2. Kreditmanagement 3.3. Derivatemanagement 3.4. Organisatorische Aspekte 4. Fazit
Content: 1 The Typology 1.1 Object Placement 2 Treatment of StG in terms of LF Movement – with and without Head Movement 3 An OT-solution in terms of linearisation (‘LF-to-PF-Mapping’) 3.1 The trigger for additional orders: Focus 3.2 Competitions 3.3 Summary 4 RP 4.1 LF Movement – with and without Head Movement 4.2 The OT-account for RP 4.3 Competitions 5 Summary
Content: 0 Introduction 1 Elements that block verb raising – a discussion 1.1 Haider’s observation 1.2 The other constructions 1.3 A possible explanation 1.4 Riemsdijk’s grafting approach as a possible alternative? 1.5 Intermediate Summary 2 Parsing problems with speech act adverbials in the pre-field
Content: 1 Introduction 2 A restrictive theory of head movement 2.1 Preliminary Remarks 2.2 Theoretical Problems of Head Movement 2.3 Remnant Phrasal Movement 2.4 Münchhausen Style Head Movement 3 Verb Second Movement 3.1 Introductory Remarks 3.2 Problems of V/2 constructions: Does V really move to Comp? 3.3 The preverbal position 3.4 The Second Position 4 References
Counting Markedness
(2003)
This paper reports the results of a corpus investigation on case conflicts in German argument free relative constructions. We investigate how corpus frequencies reflect the relative markedness of free relative and correlative constructions, the relative markedness of different case conflict configurations, and the relative markedness of different conflict resolution strategies. Section 1 introduces the conception of markedness as used in Optimality Theory. Section 2 introduces the facts about German free relative clauses, and section 3 presents the results of the corpus study. By and large, markedness and frequency go hand in hand. However, configurations at the highest end of the markedness scale rarely show up in corpus data, and for the configuration at the lowest end we found an unexpected outcome: the more marked structure is preferred.
The present paper addresses a current view in the psycholinguistic literature that case exhibits processing properties distinct from those of other morphological features such as number (cf. Fodor & Inoue, 2000; Meng & Bader, 2000a/b). In a speeded-acceptability judgement experiment, we show that the low performance previously found for case in contrast to number violations is limited to nominative case, whereas violations involving accusative and dative are judged more accurately. The data thus do not support the proposal that case per se is associated with special properties (in contrast to other features such as number) in reanalysis processes. Rather, there are significant judgement differences between the object cases accusative and dative on the one hand and the subject nominative case on the other. This may be explained by the fact that nominative has a specific status in German (and many other languages) as a default case.
The present paper addresses a current view in the psycholinguistic literature that case exhibits processing properties distinct from those of other morphological features such as number (cf. Fodor & Inoue, 2000; Meng & Bader, 2000a/b). In a speeded-acceptability judgement experiment, we show that the low performance previously found for case in contrast to number violations is limited to nominative case, whereas violations involving accusative and dative are judged more accurately. The data thus do not support the proposal that case per se is associated with special properties (in contrast to other features such as number) in reanalysis processes. Rather, there are significant judgement differences between the object cases accusative and dative on the one hand and the subject nominative case on the other. This may be explained by the fact that nominative has a specific status in German (and many other languages) as a default case.
In the recent literature there is a hypothesis that the human parser uses number and case information in different ways to resolve an initially incorrect case assignment. This paper investigates what role morphological case information plays during the parser’s detection of an ungrammaticality or its recognition that a reanalysis is necessary. First, we compare double nominative with double accusative ungrammaticalities in a word by word, speeded grammaticality task and in this way show that only double nominatives lead to a so-called ”illusion of grammaticality” (a low rate of ungrammaticality detection). This illusion was found to disappear when the second argument was realized by a pronoun rather than by a full definite determiner phrase, i.e. when the saliency of the second argument was increased. Thus, the accuracy in recognizing an ungrammaticality induced by the case feature of the second argument is dependent on the type of this argument. Furthermore, we found that the accuracy in detecting such case ungrammaticalities is distance sensitive insofar as a shorter distance leads to a higher accuracy. The results are taken as support for an ”expectationdriven” parse strategy in which the way the parser uses the information of a current input item depends on the expectation resulting from the parse carried out so far. By contrast, ”input-driven” parse strategies, such as the diagnosis model (Fodor & Inoue, 1999) are unable to explain the data presented here.
This work presents mathematical and computational approaches to cover various aspects of metabolic network modelling, especially regarding the limited availability of detailed kinetic knowledge on reaction rates. It is shown that precise mathematical formulations of problems are needed i) to find appropriate and, if possible, efficient algorithms to solve them, and ii) to determine the quality of the found approximate solutions. Furthermore, some means are introduced to gain insights on dynamic properties of metabolic networks either directly from the network structure or by additionally incorporating steady-state information. Finally, an approach to identify key reactions in a metabolic networks is introduced, which helps to develop simple yet useful kinetic models. The rise of novel techniques renders genome sequencing increasingly fast and cheap. In the near future, this will allow to analyze biological networks not only for species but also for individuals. Hence, automatic reconstruction of metabolic networks provides itself as a means for evaluating this huge amount of experimental data. A mathematical formulation as an optimization problem is presented, taking into account existing knowledge and experimental data as well as the probabilistic predictions of various bioinformatical methods. The reconstructed networks are optimized for having large connected components of high accuracy, hence avoiding fragmentation into small isolated subnetworks. The usefulness of this formalism is exemplified on the reconstruction of the sucrose biosynthesis pathway in Chlamydomonas reinhardtii. The problem is shown to be computationally demanding and therefore necessitates efficient approximation algorithms. The problem of minimal nutrient requirements for genome-scale metabolic networks is analyzed. Given a metabolic network and a set of target metabolites, the inverse scope problem has as it objective determining a minimal set of metabolites that have to be provided in order to produce the target metabolites. These target metabolites might stem from experimental measurements and therefore are known to be produced by the metabolic network under study, or are given as the desired end-products of a biotechological application. The inverse scope problem is shown to be computationally hard to solve. However, I assume that the complexity strongly depends on the number of directed cycles within the metabolic network. This might guide the development of efficient approximation algorithms. Assuming mass-action kinetics, chemical reaction network theory (CRNT) allows for eliciting conclusions about multistability directly from the structure of metabolic networks. Although CRNT is based on mass-action kinetics originally, it is shown how to incorporate further reaction schemes by emulating molecular enzyme mechanisms. CRNT is used to compare several models of the Calvin cycle, which differ in size and level of abstraction. Definite results are obtained for small models, but the available set of theorems and algorithms provided by CRNT can not be applied to larger models due to the computational limitations of the currently available implementations of the provided algorithms. Given the stoichiometry of a metabolic network together with steady-state fluxes and concentrations, structural kinetic modelling allows to analyze the dynamic behavior of the metabolic network, even if the explicit rate equations are not known. In particular, this sampling approach is used to study the stabilizing effects of allosteric regulation in a model of human erythrocytes. Furthermore, the reactions of that model can be ranked according to their impact on stability of the steady state. The most important reactions in that respect are identified as hexokinase, phosphofructokinase and pyruvate kinase, which are known to be highly regulated and almost irreversible. Kinetic modelling approaches using standard rate equations are compared and evaluated against reference models for erythrocytes and hepatocytes. The results from this simplified kinetic models can simulate acceptably the temporal behavior for small changes around a given steady state, but fail to capture important characteristics for larger changes. The aforementioned approach to rank reactions according to their influence on stability is used to identify a small number of key reactions. These reactions are modelled in detail, including knowledge about allosteric regulation, while all other reactions were still described by simplified reaction rates. These so-called hybrid models can capture the characteristics of the reference models significantly better than the simplified models alone. The resulting hybrid models might serve as a good starting point for kinetic modelling of genome-scale metabolic networks, as they provide reasonable results in the absence of experimental data, regarding, for instance, allosteric regulations, for a vast majority of enzymatic reactions.
Do we know the answer?
(2003)
The Earth’s magnetic field (EMF) is generated by convections in the electrically conducting liquid iron-rich outer core, modified by the Earth’s rotation. A drastic manifestation of the dynamics of this fluid body is the occurrence of geomagnetic field reversals in the Earth’s history but also geomagnetic excursions, which are more frequent features of otherwise stable polarity chrons, but often poorly constrained in the geological record. To better understand the origin of the field, we need to know how the field has varied on different geological timescales. This includes not only information about changes in the ancient field’s direction but also about the absolute intensity (palaeointensity) and the age. This palaeointensity record is needed for compiling a full-vector description of the field. A palaeomagnetic and palaeointensity study on lava flows allows gaining insights about the evolution of the EMF through time and space. However, constraining the EMF evolution over different geological timescales remains a difficult objective due to the paucity of available palaeointensity data. One new alternative approach in palaeointensity studies is the recently proposed multispecimen parallel differential pTRM (MS) method, which has potentially several advantages over the commonly used Thellier method, because it is in theory independent of magnetic domain state, less prone to biasing effects, such as thermal alteration and significantly faster to perform in the laboratory. A study of highly active volcanic regions, such as the Trans-Mexican Volcanic Belt, seems promising when attempting a full-vector reconstruction or when looking for field excursions. One aim of this thesis was to gain new information about the occurrence and global validity of geomagnetic excursions from the Brunhes- or Matuyama Chron. For this purpose some 75 lava flows from within the Trans-Mexican Volcanic Belt were sampled for palaeomagnetic analyses. The scatter of virtual geomagnetic poles from lavas younger than 1.7 Ma was used for estimating palaeosecular variation and was found to be consistent with latitude dependent Model G and other high quality palaeomagnetic data from Mexico. The palaeomagnetic mean-vectors of 56 lavas were correlated to the Geomagnetic Polarity Timescale supplemented with information on geomagnetic excursions. On the grounds of their associated radioisotopic ages, four lavas were tentatively correlated with known excursions from marine records. Two lava flows dating of Brunhes Chron were associated with the Big Lost and Delts/Stage 17 excursions, respectively. From further two flows dating of Matuyama Chron, one flow was associated with either the Santa Rosa- or Kamikatsura excursions, while the other could have been emplaced during the Gilsa excursion. The most significant outcome was the finding that both Brunhes excursional flows display nearly fully reversed directions that deviate almost 180°C from the expected normal polarity direction. This observation could indicate that in particular the Big Lost and Delta/Stage17 excursions may represent other short periods during which the field completed a full reversal for a short time, such as was previously found for other older cryptochrons or tiny wiggles. Another focus of this thesis was set on estimating the feasibility of the new MS method for routine palaeointensity determination. This was accomplished by applying the MS method to samples from 11 historical lava flows from Mexico and Iceland from which the actual field intensity was either known from contemporary observatory data, or deduced from magnetic field models. Comparing observed with expected intensity values allowed to test the accuracy of the MS method. It a was found that the majority of palaeointensity estimates after the MS method yielded results that were very close or indistinguishable within the range of uncertainty from the expected values. However, a general trend towards an overestimate in the palaeointensity was also observed, which, on the grounds of corroborating rock magnetic analyses, was associated with multidomain material. This observation was taken as first evidence that the MS method is not entirely independent of magnetic domain state, as was originally claimed. However, a second experiment in which a modification of the most widely used Thellier method was applied to sister samples from 5 Icelandic flows revealed that, in comparison to the MS method, the latter produced more accurate and statistically better defined palaeointensities. Thus, from these first results, the MS method appeared as a viable alternative for future palaeointensity studies. Subsequently it was attempted to corroborate the directional record from Mexican lavas with palaeointensity data. It was possible to acquire palaeointensity estimates for 32 out of 51 investigated lava flows. These new results revealed that the new MS palaeointensities for Mexico are, with a high degree of statistical significance, around 30% higher than expected. The generally high palaeointensities seem to corroborate the results obtained from historical lava flows in this study and other previous studies on synthetic samples where domain state effects were found to cause overestimates in the palaeointensity of up to 30 per cent in the MS method. The primary process that leads to this overestimate is assigned to an asymmetry in the demagnetisation and remagnetisation process. Yet, this overestimate is expected to be no larger than what might be expected from Thellier experiments performed on samples with a given degree of multidomain behaviour.
Modern anthropogenic forcing of atmospheric chemistry poses the question of how the Earth System will respond as thousands of gigatons of greenhouse gas are rapidly added to the atmosphere. A similar, albeit nonanthropogenic, situation occurred during the early Paleogene, when catastrophic release of carbon to the atmosphere triggered abrupt increase in global temperatures. The best documented of these events is the Paleocene-Eocene Thermal Maximum (PETM, ~55 Ma) when the magnitude of carbon addition to the oceans and atmosphere was similar to those expected for the future. This event initiated global warming, changes in hydrological cycles, biotic extinction and migrations. A recently proposed hypothesis concerning changes in marine ecosystems suggests that this global warming strongly influenced the shallow-water biosphere, triggering extinctions and turnover in the Larger Foraminifera (LF) community and the demise of corals. The successions from the Adriatic Carbonate Platform (SW Slovenia) represent an ideal location to test the hypothesis of a possible causal link between the PETM and evolution of shallow-water organisms because they record continuous sedimentation from the Late Paleocene to the Early Eocene and are characterized by a rich biota, especially LF, fundamental for detailed biostratigraphic studies. In order to reconstruct paleoenvironmental conditions during deposition, I focused on sedimentological analysis and paleoecological study of benthic assemblages. During the Late Paleocene-earliest Eocene, sedimentation occurred on a shallow-water carbonate ramp system characterized by enhanced nutrient levels. LF represent the common constituent of the benthic assemblages that thrived in this setting throughout the Late Paleocene to the Early Eocene. With detailed biostratigraphic and chemostratigraphic analyses documenting the most complete record to date available for the PETM event in a shallow-water marine environment, I correlated chemostratigraphically for the first time the evolution of LF with the δ¹³C curves. This correlation demonstrated that no major turnover in the LF communities occurred synchronous with the PETM; thus the evolution of LF was mainly controlled by endogenous biotic forces. The study of Late Thanetian metric-sized microbialite-coral mounds which developed in the middle part of the ramp, documented the first Cenozoic occurrence of microbially-cemented mounds. The development of these mounds, with temporary dominance of microbial communities over corals, suggest environmentally-triggered “phase shifts” related to frequent fluctuations of nutrient/turbidity levels during recurrent wet phases which preceding the extreme greenhouse conditions of the PETM. The paleoecological study of the coral community in the microbialites-coral mounds, the study of corals from Early Eocene platform from SW France, and a critical, extensive literature research of Late Paleocene – Early Eocene coral occurrences from the Tethys, the Atlantic, the Caribbean realms suggested that these corals types, even if not forming extensive reefs, are common in the biofacies as small isolated colonies, piles of rubble or small patch-reefs. These corals might have developed ‘alternative’ life strategies to cope with harsh conditions (high/fluctuating nutrients/turbidity, extreme temperatures, perturbation of aragonite saturation state) during the greenhouse times of the early Paleogene, representing a good fossil analogue to modern corals thriving close to their thresholds for survival. These results demonstrate the complexity of the biological responses to extreme conditions, not only in terms of temperature but also nutrient supply, physical disturbance and their temporal variability and oscillating character.
Dietary antioxidants are believed to play an important role in the prevention and treatment of a variety of diseases associated with oxidative stress. Although there is a wide range of dietary antioxidants, the bulk of the research to date has been focused on the nutrient antioxidants vitamin C, E, and carotenoids. Certain relatively uncommon antioxidants such as lipoic acid (LA), and phenolic compounds such as (-)-epicatechin (EC), (-)-epigallocatechin (EGC), (-)-epicatechin gallate (ECG), and (-)-epigallocatechin gallate (EGCG), have not been extensively investigated although they may exert greater antioxidant potency than that of carotenoids and vitamins. Extracts from selected plants and plant byproducts may represent rich sources for one or more of such antioxidants and therefore exhibit higher effects than a single antioxidant due to the synergistic effects produced between such antioxidants. However, in the last decade a number of epidemiological, animal and in vitro studies have suggested a protective and therapeutic potency of these antioxidants in a broad range of diseases such as cancer, diabetes, atherosclerosis, cataract and acute and chronic neurological disorders. Inflammation, the response of the host toward any infection or injury, plays a central role in the development of many chronic diseases. Several evidences demonstrated the rise of different types of cancer from sites of inflammation. This suggests that active oxygen species and some cytokines generated in the inflamed tissues can cause injury to DNA and ultimately lead to carcinogenesis. Diethylnitrosamine (DEN) is one of the most important environmental carcinogens, present in a variety of foods, alcoholic beverages, tobacco smoke and it can be synthesized endogenously. In addition to the liver it can induce carcinogenesis in other organs like kidney, trachea, lung, esophagus, fore stomach, and nasal cavity. Several epidemiological and laboratory studies indicate that nitroso compounds including DEN may induce hyperplasia and chronic inflammation which is closely associated with the development of hepatocellular carcinoma. Despite increasing evidence on the potential of antioxidants in modulating the etiology of chronic diseases, little is known about their role in inflammation and acute phase response (APR). Therefore the aim of the present work was to study the protective effect of water and solvent extracts of eight plant and plant byproducts including green tea, artichoke, spinach, broccoli, onion and eggplant, orange and potato peels as well as eight antioxidants agents including EC, EGC, ECG, EGCG, ascorbic acid (AA), acetylcysteine (NAC), α-LA, and alpha-tocopherol (α-TOC) toward acute inflammation induced by interleukin-6 (IL-6) and hepatotoxicity induced by DEN in vitro. The negative acute phase proteins (APP), transthyretin (TTR) and retinol-binding protein (RBP) were used as inflammatory biomarkers analyzed by ELISA, whereas neutral red assay was used for evaluating the cytotoxicity. All experiments were performed in vitro using human hepatocarcinoma cell line (HepG2). Additionally the antioxidant activity was measured by TEAC and FRAP assays, phenolic content was measured by Folin–Ciocalteu and characterized by HPLC. Moreover, the microheterogeneity of TTR was detected using immunoprecipitation assay combined with SELDI-TOF MS. Results of present study showed that HepG2 cells provide a simple, sensitive in vitro system for studying the regulation of the negative APP, TTR and RBP under free and inflammatory condition. IL-6, a potent proinflammatory cytokine, in a concentration of 25 ng/ml was able to reduce TTR and RBP secretion by approximately 50-60% after 24h of incubation. With exception of broccoli and water extract of onion which showed pro-inflammatory effects in this study, all other plant extracts, at specific concentrations, were able to elevate TTR secretion in normal condition and even under treatment of IL-6 where the effect was quite lower. Green tea followed by artichoke and potato peel exhibited the highest elevation in TTR concentration which reached 1.1 and 2.5 folds of control in presence and absences of IL-6 respectively. In general Plant extracts were ordered according their anti-inflammatory potency as following: in water extracts; green tea > artichoke > potato peel > orange peel > spinach > eggplant peel, where in solvent extracts; green tea > artichoke > potato peel > spinach > eggplant peel > onion > orange peel. The antiinflammatory effect of water extracts of green tea, artichoke and orange peel were significantly higher than their corresponding solvent extracts whereas water extracts of eggplant-, potato peels and spinach showed lower effect than their solvent extracts. On the other hand α-LA followed by EGCG and ECG exhibited the highest elevation in TTR concentration compared to other antioxidants. The relation between the anti-inflammatory potential and antioxidants activity and phenolic content for the investigated substances was generally weak. This may suggest the involvement of other mechanisms than antioxidants properties for the observed effect. TTR secreted by HepG2 cells has a molecular structure quite similar to the purified standard and serum TTR in which all the three main variants are contained including native, S-cystinylated and Sglutathionylated TTR. Interestingly, a variant with molecular mass of 13453.8 + 8.3 Da has been detected only in TTR secreted by HepG2. Among all investigated antioxidants and plant extracts, six substances were able to elevate the native preferable TTR variant. The potency of these substances can be ordered as following α-LA > NAC > onion > AA > EGCG > green tea. A weak correlation between elevation on TTR and shifting to the native form was observed. Similar weak correlation has also been observed between antioxidants activity and elevation in native TTR. Although DEN was able to induce cell death in a concentration dependent manner, it requires considerably higher concentrations for its effects especially after 24h. This may be attributed to a lack in cytochrome P450 enzymes produced by HepG2. At selected concentrations some antioxidants and plant extracts significantly attenuate DEN cytotoxicity as following: spinach > α-LA > artichoke > orange peel > eggplant peel > α-TOC > onion > AA. Contrary all other substances especially green tea, broccoli, potato peel, and ECG stimulate DEN toxicity. In conclusion, this study demonstrated that selected antioxidants and plant extracts may attenuate the inflammatory process, not only by their antioxidants potency but also by other mechanisms which remain unclear. They may also play a vital role on stabilizing the tetramic structure of TTR and thereby prevent amyloidosis diseases. Lipoic acid represents in this study unique function against inflammation and hepatotoxicity. Despite the protective effect demonstrated by investigated substances, attention should also be given to the pro-oxidant and potential cytotoxic effects produced at higher concentrations.
Holmberg (1997, 1999) assumes that Holmberg's generalisation (HG) is derivational, prohibiting Object Shift (OS) across an intervening non-adverbial element at any point in the derivation. Counterexamples to this hypothesis are given in Fox & Pesetsky (2005) which show that remnant VP-topicalisations are possible in Scandinavian as long as the VP-internal order relations are maintained. Extending the empirical basis concerning remnant VP-topicalisations, we argue that HG and the restrictions on object stranding result from the same, more general condition on order preservation. Considering this condition to be violable and to interact with various constraints on movement in an Optimality-theoretic fashion, we suggest an account for various asymmetries in the interaction between remnant VP-topicalisations and both OS and other movement operations (especially subject raising) as to their order preserving characteristics and stranding abilities.
The main claim of this paper is that the minimalist framework and optimality theory adopt more or less the same architecture of grammar: both assume that a generator defines a set S of potentially well-formed expressions that can be generated on the basis of a given input, and that there is an evaluator that selects the expressions from S that are actually grammatical in a given language L. The paper therefore proposes a model of grammar in which the strengths of the two frameworks are combined: more specifically, it is argued that the computational system of human language CHL from MP creates a set S of potentially well-formed expressions, and that these are subsequently evaluated in an optimality theoretic fashion.
The simple generator
(2006)
I argue that the shift of explanatory burden from the generator to the evaluator in OT syntax – together with the difficulties that arise when we try to formulate a working theory of the interfaces of syntax – leads to a number of assumptions about syntactic structures in OT which are quite different from those typical of minimalist syntax: formal features, as driving forces behind syntactic movement, are useless, and derivational and representational economy are problematic for both empirical and conceptual reasons. The notion of markedness, central in Optimality Theory, is not fully compatible with the idea of synactic economy. Even more so, seemingly obvious cases of blocking by structural economy do not seem to result from grammar proper, but reflect (economical) aspects of language use.
Natural law
(2006)
This work concentrates on the requirements of the computational system of HL, by developing the idea that Natural Law applies to universal syntactic principles. The systems of efficient growth are for the continuation of motion and maximal distance between the elements. The condition of maximization accounts for the properties of syntactic trees - binary branching, labeling, and the EPP. NL justifies the basic principle of organization in Merge: it provides a functional explanation of phase formation and thematic domains. In Optimality Theory, it accounts for the selection of a particular word order in languages. A comprehensive and definitive understanding of the principles underlying MP will eventually lead to a more advanced design of OT.
If we want to compare the explanatory and descriptive adequacy of the MP and OT, the original definitions by Chomsky (1964) are or little direct use. However, a relativized version of both notions can be defined, which can be used to express a number of parallels between the study of individual I-languages and the language faculty. In any version of explanatory and descriptive adequacy, the two notions derive from the research programme and can only be achieved together. They can therefore not be used to characterize the difference in orientation between OT and the MP. Even if ‘OT’ is restricted to a particular theory in Chomskyan linguistics (to the exclusion of, for instance, its use in LFG), it cannot be said to be stronger in descriptive adequacy than in explanatory adequacy in the technical sense of these terms.
Minimalist accounts lack a natural theory of markedness, whereas Optimality-Theoretical accounts fundamentally encode markedness. We think the duality of interfaces assumed in Minimalism is a step towards explaining pairedness behavior, where a given language exhibits a marked/ unmarked pair of items occupying the same niche. We argue that while Minimalism articulates the derivational aspect of language, and underlies grammaticality, an Optimality Theoretic articulation of PF and LF is conceptually natural and explains pairedness behavior. We adopt this ‘hybrid’ account, first, to explain the existence of marked (often termed ‘reflexive’) and unmarked anticausatives in German, recently studied in depth by Sch¨afer [2007].
Branching constraints
(2009)
Rejecting approaches with a directionality parameter, mainstream minimalism has adopted the notion of strict (or unidirectional) branching. Within optimality theory however, constraints have recently been proposed that presuppose that the branching direction scheme is language specific. I show that a syntactic analysis of Chechen word order and relative clauses using strict branching and movement triggered by feature checking seems very unlikely, whereas a directionality approach works well. I argue in favor of a mixed directionality approach for Chechen, where the branching direction scheme depends on the phrase type. This observation leads to the introduction of context variants of existing markedness constraints, in order to describe the branching processes in terms of optimality theory. The paper discusses how and where the optimality theory selection of the branching directions can be implemented within a minimalist derivation.
This paper discusses three case studies on the realization of spurious prepositions and argues that they illustrate a general interaction of convergence requirements of the morphological component with an economy condition that enforces faithfulness between the lexical items present in the numeration and the lexical items present in the PF output.
Variation in dative resumption among and within Alemannic varieties of German strongly favors an Evaluator component that makes use of optimality-theoretic evaluation rather than filters as in the Minimalist Program (MP). At the same time, the variation is restricted to realizational requirements. This supports a model of syntax like the Derivations and Evaluations framework (Broekhuis 2008) that combines a restrictive MP-style Generator with an Evaluator that includes ranked violable (interface) constraints.
Say hello to markedness
(2009)
In this paper, it will be shown that Bi-directional Optimality Theory (BOT) runs into problems of undergeneration when confronted with a certain class of partial-blocking phenomena. The empirical problem used to illustrate this is the cross-linguistic variation of one-step past-referring tenses. It will be argued that the well-known ‘present perfect puzzle’ is a sub-problem of it. The solution to the cross-linguistic variation of these tenses involves blocking of the marked tense. The relevant notion of ‘markedness’, while underivable synchronically, is argued to be linked to diachronic learning processes similar to those investigated by Benz (2006).
Aspect splits can affect agreement, Case, and even preposition insertion. This paper discusses the functional ‘why’ and the theoretical ‘how’ of aspect splits. Aspect splits are an economical way to mark aspect by preserving or suppressing some independent element in one aspect. In formal terms, they are produced in the same way as coda conditions in phonology, with positional/contextual faithfulness.This approach captures the additive effects of cross-cutting splits. Aspect splits are analyzed here from Hindi, Nepali, Yucatec Maya, Chontal, and Palauan.
In this paper I argue that both parametric variation and the alleged differences between languages in terms of their internal complexity straightforwardly follow from the Strongest Minimalist Thesis that takes the Faculty of Language (FL) to be an optimal solution to conditions that neighboring mental modules impose on it. In this paper I argue that hard conditions like legibility at the linguistic interfaces invoke simplicity metrices that, given that they stem from different mental modules, are not harmonious. I argue that widely attested expression strategies, such as agreement or movement, are a direct result of conflicting simplicity metrices, and that UG, perceived as a toolbox that shapes natural language, can be taken to consist of a limited number of markings strategies, all resulting from conflicting simplicity metrices. As such, the contents of UG follow from simplicity requirements, and therefore no longer necessitate linguistic principles, valued or unvalued, to be innately present. Finally, I show that the SMT does not require that languages themselves have to be optimal in connecting sound to meaning.
Zur Konzeption und zu inhaltlichen Perspektiven der Forschungsstelle Systematische Musikpädagogik
(2006)
Inhalt: - Einleitung - Zum Standort einer Systematischen Musikpädagogik - Zu den noch jungen Traditionen musikpädagogischer Forschung und einer Systematischen Musikpädagogik - Vom Nutzen einer Systematischen Musikpädagogik für die Hochschul- und Schulpraxis - Perspektive einer vernetzenden Unterrichtstheorie - Perspektiven einer Vermittlungsmethodik - Neueröffnung zu Ansätzen einer musikpädagogisch orientierten Soziologie - Musikpädagogische Betrachtungen anhand eines Beispiel
Inhalt: 1. Einführung 2. Einige Bruchstücke aus den Arbeitsergebnissen zur Forschung DDR-Musikerziehung und zum Musiklernen in der DDR 3. Ausgewählte Diskussionspunkte und Perspektiven im zeitgeschichtlichen Forschungsfeld DDR-Musikerziehung 3.1 Was ist Zeitgeschichte im Kontext musikpädagogischer Forschung? 3.2 Welche motivationalen Zugänge zur Erforschung der DDR-Musikpädagogik lassen sich finden? 3.3 Kann die wissenschaftliche Auseinandersetzung mit der DDR-Musikpädagogik als Modellfall gelten? 3.4 Welcher Sachstand ist zur Erforschung der DDR-Musikpädagogik zu bilanzieren? 3.5 Welche Forschungsdesiderata konnten festgestellt werden?
Are the Germans interested in flamenco nowadays? If so they are, then how can a type of art that is so different from both German cultured and popular music be represented in the culture of that country? Possible answers to this and other questions on the still romantic image of flamenco held in Central Europe will be provided by the analysis of the flamenco being offered at German universities, festivals, private dance schools, publishing houses and websites.
Are the Germans interested in flamenco nowadays? If so they are, then how can a type of art that is so different from both German cultured and popular music be represented in the culture of that country? Possible answers to this and other questions on the still romantic image of flamenco held in Central Europe, will be provided by the analysis of the flamenco being offered at German universities, festivals, private dance schools, publishing houses and websites.
Content: 1. Introduction 2. Music in the curriculum of The Educación Obligatoria 2.1 Music in Educación Primaria - Listening and Comprehension - Music Making - Rational Analysis (Musical Notation) 2.2. Music in Educación Secundaria Obligatoria (E.S.O. Compulsory Secondary education) and Bachillerato (Pre-University Education) 3. Music in the Spanish Non-Compulsory Education 3.1. Elementary and Medium Levels 3.2. The “Title of Higher Music Education” 4. The new certificate of “Didactic Specialization” 5. Concluding remarks