Refine
Has Fulltext
- yes (13352) (remove)
Year of publication
Document Type
- Article (4010)
- Postprint (3294)
- Doctoral Thesis (2540)
- Monograph/Edited Volume (971)
- Review (558)
- Part of Periodical (492)
- Preprint (446)
- Master's Thesis (264)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7057)
- English (5995)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1382)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (714)
- Institut für Biochemie und Biologie (710)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (556)
- Institut für Mathematik (520)
- Institut für Romanistik (514)
- Institut für Geowissenschaften (509)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
Diese Arbeit umfasst die Archivierung, Visualisierung anhand bioinformatischer Methoden und Interpretation eines vorhandenen Messdatensatz (Element [ICP-MS]-, Ionen [IC]- und Metabolitdaten [RP-HPLC und GC/TOF-MS]) der Pflanze Arabidopsis thaliana getrennt in Blätter und Wurzeln. Die Pflanzen wurden den sechs Mangelsituationen der Nährstoffe Eisen, Kalium, Magnesium, Stickstoff, Phosphor und Schwefel ausgesetzt und zu neun Messzeitpunkten [0.5-, 1-, 2-, 3-, 4-, 5-, 6-, 7-in Tagen und „resupply“ (vier Stunden nach dem vierten Tag)] analysiert. Es erfolgte die Integration der Messdaten in eine SQlite-Datenbank. Die Veranschaulichung erfolgte mit Hilfe der Programmiersprache R. Anhand einiger Pakete zur Erweiterung des Funktionsumfangs von R wurde erstens eine Schnittstelle zur SQLite- Datenbank hergestellt, was ein Abfragen an diese ermöglichte und zweitens verhalfen sie zu der Erstellung einer Reihe zusätzlicher Darstellungsformen (Heatmap, Wireframe, PCA). Selbstgeschriebene Skripte erlaubten den Datenzugriff und die grafische Ausgabe als z. B. Heatmaps. In der Entstehung dieser Arbeit sind weiterhin zwei weitere Visualisierungsformen von PCA-Daten entwickelt worden: Das Abstandsdiagramm und die animierte PCA. Beides sind hilfreiche Werkzeuge zur Interpretation von PCA-Plots eines zeitlichen Verlaufes. Anhand der Darstellungen der Element- und Ionendaten ließen sich die Nährstoffmangelsituationen durch Abnahme der entsprechenden Totalelemente und Ionen nachweisen. Weiterhin sind starke Ähnlichkeiten der durch RP-HPLC bestimmten Metaboliten unter Eisen-, Kalium und Magnesiummangel erkannt worden. Allerdings gibt es nur eine geringe Anzahl an Interkationen der Metabolitgehalte, da der Großteil der Metabolitlevel im Vergleich zur Kontrolle unverändert blieb. Der Literaturvergleich mit zwei Publikationen, die den Phosphat- und Schwefelmangel in Arabidopsis thaliana untersuchten, zeigte ein durchwachsenes Ergebnis. Einerseits gab es eine gleiche Tendenz der verglichenen Aminosäuren zu verzeichen, aber andererseits wiesen die Visualisierungen auch Gegensätzlichkeiten auf. Der Vergleich der mit RP-HPLC und GC/TOF-MS gemessenen Metaboliten erbrachte ein sehr kontroverses Ergebnis. Zum einen wurden Übereinstimmungen der gleichen Metaboliten durch gemeinsame Cluster in den Heatmaps beobachtet, zum anderen auch Widersprüche, exemplarisch in den Abstandsdiagrammen der Blätterdaten jedes Verfahrens, in welchen unterschiedliche Abstandshöhepunkte erkennbar sind.
Content: 1 The Development of the Estonian Gender Policy Machinery 1.1 Initiation of Institutionalisation as a Result of International Commitments 1.2 Institutional Measures Facilitating EU Membership 1.3 Assessment of the Gender Equality Machinery 2 Conditions for Gender Mainstreaming in Estonia 2.1 Social Conditions 2.2 Administrative Conditions 3 Gender Mainstreaming Activities in the Estonian Public Administration 3.1 The Legal Foundations 3.2 Inter-ministerial Cooperation 3.3 Gender Mainstreaming Training 3.4 Knowledge Basis 3.5 Lack of Standards for data and Statistics 3.6 Non-adminsitrative Liaisons 4 Conclusion
One of the main problems in machine learning is to train a predictive model from training data and to make predictions on test data. Most predictive models are constructed under the assumption that the training data is governed by the exact same distribution which the model will later be exposed to. In practice, control over the data collection process is often imperfect. A typical scenario is when labels are collected by questionnaires and one does not have access to the test population. For example, parts of the test population are underrepresented in the survey, out of reach, or do not return the questionnaire. In many applications training data from the test distribution are scarce because they are difficult to obtain or very expensive. Data from auxiliary sources drawn from similar distributions are often cheaply available. This thesis centers around learning under differing training and test distributions and covers several problem settings with different assumptions on the relationship between training and test distributions-including multi-task learning and learning under covariate shift and sample selection bias. Several new models are derived that directly characterize the divergence between training and test distributions, without the intermediate step of estimating training and test distributions separately. The integral part of these models are rescaling weights that match the rescaled or resampled training distribution to the test distribution. Integrated models are studied where only one optimization problem needs to be solved for learning under differing distributions. With a two-step approximation to the integrated models almost any supervised learning algorithm can be adopted to biased training data. In case studies on spam filtering, HIV therapy screening, targeted advertising, and other applications the performance of the new models is compared to state-of-the-art reference methods.
Arbeit und Magie werden in der ländlichen Gesellschaft der Frühen Neuzeit neu bewertet. Während die Reformation die Arbeit aufwertet, verteufelt sie den Müßiggang. Als zentrale Lebensäußerung bei der man häufig mit dem Lebensbereich des Anderen in Berührung kommt, birgt Arbeit ein hohes Konfliktpotential in sich. Als Glaubensform basiert Magie auf kollektiven Übereinkünften und strebt einen praktikablen Umgang mit feindseligen Mächten an, so dass sie mit Formen alltäglicher Konfliktaustragung (Gegenzauber, Bezichtigung als Zauberer/Zauberin) bekämpft werden können. Auf Magie als Deutung oder Handlung haben ihre beginnende Kriminalisierung (Carolina) und das Vordringen der Schriftlichkeit nachhaltigen Einfluss. Aus diesen Veränderungen heraus empfängt das Themenpaar Arbeit und Magie seine Bedeutung, das hier in seinem Zusammenwirken erstmals untersucht wird und zwar am Beispiel der Mittelmark. Wie die Auswertung von Gesuchen mittelmärkischer Gerichte um Rechtsbelehrung an den Schöppenstuhl in Brandenburg zum neuen Delikt der Zauberei im Zeitraum von 1551 bis 1620 beweist, handelt es sich bei der Mittelmark um ein verfolgungsarmes Territorium, das sich daher bestens für die Untersuchung des selbstverständlichen Umgangs mit Magie eignet. In 98 von 136 Prozessen sind insgesamt 107 Frauen und 9 Männer angeklagt – darunter eine „weise Frau“ und zwei Männer als volksmagische Spezialisten. Der Höhepunkt der Spruchtätigkeit liegt zwischen 1571 und 1580. In dieser Phase tauchen erstmals dämonischer Vorstellungen auf und werden weibliche Magiedelikte auch auf Männer übertragen (Schadenszauber, Teufelspakt). Der Vorwurf des Teufelspaktes ist überwiegend im Nordwesten der Mittelmark anzutreffen und wird hier auch zuerst erhoben. Dennoch kann sich der dämonische Hexenglauben als städtisches Phänomen in der ländlich geprägten Mittelmark kaum durchsetzen, denn in keinem der untersuchten Fälle taucht der Terminus „Hexe“ auf. Die Rezeption der Hexenlehre in all ihren wesentlichen Elementen (Buhlschaft, Zusammenkunft auf dem Blocksberg und die Fahrt dorthin) ist erst 1613 abgeschlossen. Damit kommt sie für die Mittelmark zu spät, um ihre zerstörerische Wirkung zu entfalten: Die Auswirkungen des Dreißigjährigen Krieges überlagern alsbald die Vorstellungen von „bösen Zauberinnen“. Mit Hilfe der Studien von RAINER WALZ zur magischen Kommunikation und EVA LABOUVIE (Offizialisierungsstrategien) wurden drei Fälle näher untersucht, in denen die Arbeit entweder Konfliktanlass ist, mit magischen Mitteln beeinflusst wird oder es um die professionelle Ausübung von Magie im Bezug auf ländliche Arbeit geht. In Nassenheide wird 1573 dem Bauern Peter Calys das Abzaubern von Feldfrüchten unterstellt. Seine Nachbarschaft beobachtet ein ihr unbekanntes Ritual (vermutlich eine Schädlingsbekämpfung), was sie in kein geduldetes magisches Handeln einordnen kann. In Liebenwalde geht es 1614 um „fliegende Worte“, die im Streit um erschlagene Gänse ausgesprochen und später, nach einer Reihe von Unglücksfällen, vom Gescholtenen als Flüche umgedeutet werden. In Rathenow steht 1608 der Volksmagier Hermann Mencke vor Gericht. Sein Repertoire an magischen Hilfsleistungen umfasst Bann-, Heil- und Hilfszauber. Diese drei Fallstudien ergaben für das Thema Arbeit und Magie, dass Magie in der sich schwerfällig entwickelnden Landwirtschaft ein innovatives Potential zukommt. Das Experimentieren mit Magieformen bleibt jedoch Spezialisten der Volksmagie vorbehalten. Insbesondere in den Dörfern, wo die Grenzen zwischen männlicher und weiblicher Magie durchlässig sind, erweist sich die Geschlechtsspezifik der volkstümlichen Magie als Produkt der Lebens- und Arbeitsbeziehungen in der ländlichen Gesellschaft. Männer wie Frauen verfügen über die zu ihren Arbeitsbereichen passenden Hilfszauber. Dass Zauber zu Frauenarbeiten wie Milchverarbeitung und Bierbrauen überwiegen, liegt neben der Häufigkeit, mit der diese Verrichtungen anfallen, ihrer Anfälligkeit für Fehler und ihrer Bedeutung für die Ernährung daran, dass sie sich im Verborgenen abspielen und daher verdächtig sind. Außerdem handelt es sich um mühselige und monotone Tätigkeiten, die daher der Motivation durch Magie bedürfen. Die Schlichtheit der weiblichen Magie korrespondiert mit der geringeren Spezialisierung weiblicher Arbeit in der Landwirtschaft, die sich in der Verwendung einfacher Werkzeuge bekundet. Wörter können wegen der spezifischen Organisation der Hirnareale zur Sprachverarbeitung in einer auf Mündlichkeit beruhenden Kultur heilen oder eine lebensbedrohliche Waffe sein. Indem Magie das Profane dramatisiert, kommt ihr die Funktion einer Erinnerungskunst zu, die später durch die Schrift ausgefüllt wird. Die Schrift macht Magie als Mnemotechnik überflüssig und immunisiert gegen die Macht des Wortes. Damit reift auch die Skepsis an der Wirksamkeit von Magie. Schließlich werden Schadenszaubervorwürfe nur noch als Injurienklagen verhandelt. Sie bestimmen die Prozesse um Zauberei nach dem Großen Krieg.
Was treibt den Ölpreis?
(2009)
Der Rohölpreis wird über Angebot und Nachfrage reguliert – so jedenfalls die landläufige Auffassung. Die Autoren, beide ausgewiesene Energieexperten, zeigen jedoch auf, dass sich die drastischen Preisschwankungen auf den Energiemärkten nicht allein durch Marktmechanismen erklären lassen. Stattdessen führen sie den volatilen Ölpreis auf politische (Fehl-) Entscheidungen zurück und empfehlen einen Energiedialog zwischen Verbrauchern und Produzenten.
(1) Über die Notwendigkeit, die bisherige Informatik in eine Grundlagenwissenschaft und eine Ingenieurwissenschaft aufzuspalten (2) Was ist Ingenieurskultur? (3) Das Kommunikationsproblem der Informatiker und ihre Unfähigkeit, es wahrzunehmen (4) Besonderheiten des Softwareingenieurwesens im Vergleich mit den klassischen Ingenieurdisziplinen (5) Softwareingenieurspläne können auch für Nichtfachleute verständlich sein (6) Principles for Planning Curricula in Software Engineering
This document presents the results of the seminar "Coneptual Arachitecture Patterns" of the winter term 2002 in the Hasso-Plattner-Institute. It is a compilation of the student's elaborations dealing with some conceptual architecture patterns which can be found in literature. One important focus laid on the runtime structures and the presentation of the patterns. 1. Introduction 1.1. The Seminar 1.2. Literature 2 Pipes and Filters (André Langhorst and Martin Steinle) 3 Broker (Konrad Hübner and Einar Lück) 4 Microkernel (Eiko Büttner and Stefan Richter) 5 Component Configurator (Stefan Röck and Alexander Gierak) 6 Interceptor (Marc Förster and Peter Aschenbrenner) 7 Reactor (Nikolai Cieslak and Dennis Eder) 8 Half–Sync/Half–Async (Robert Mitschke and Harald Schubert) 9 Leader/Followers (Dennis Klemann and Steffen Schmidt)
1. Applikationen für weitverteiltes Rechnen Dennis Klemann, Lars Schmidt-Bielicke, Philipp Seuring 2. Das Globus-Toolkit Dietmar Bremser, Alexis Krepp, Tobias Rausch 3. Open Grid Services Architecture Lars Trieloff 4. Condor, Condor-G, Classad Stefan Henze, Kai Köhne 5. The Cactus Framework Thomas Hille, Martin Karlsch 6. High Performance Scheduler mit Maui/PBS Ole Weidner, Jörg Schummer, Benedikt Meuthrath 7. Bandbreiten-Monitoring mit NWS Alexander Ritter, Gregor Höfert 8. The Paradyn Parallel Performance Measurement Tool Jens Ulferts, Christian Liesegang 9. Grid-Applikationen in der Praxis Steffen Bach, Michael Blume, Helge Issel
This document is an analysis of the 'Java Language Conversion Assistant'. Itr will also cover a language analysis of the Java Programming Language as well as a survey of related work concerning Java and C# interoperability on the one hand and language conversion in general on the other. Part I deals with language analysis. Part II covers the JLCA tool and tests used to analyse the tool. Additionally, it gives an overview of the above mentioned related work. Part III presents a complete project that has been translated using the JLCA.
The Apache Modeling Project
(2004)
This document presents an introduction to the Apache HTTP Server, covering both an overview and implementation details. It presents results of the Apache Modelling Project done by research assistants and students of the Hasso–Plattner–Institute in 2001, 2002 and 2003. The Apache HTTP Server was used to introduce students to the application of the modeling technique FMC, a method that supports transporting knowledge about complex systems in the domain of information processing (software and hardware as well). After an introduction to HTTP servers in general, we will focus on protocols and web technology. Then we will discuss Apache, its operational environment and its extension capabilities— the module API. Finally we will guide the reader through parts of the Apache source code and explain the most important pieces.
1. Grundlagen der Softwarevisualisierung Johannes Bohnet und Jürgen Döllner 2. Visualisierung und Exploration von Softwaresystemen mit dem Werkzeug SHriMP/Creole Alexander Gierak 3. Annex: SHriMP/Creole in der Anwendung Nebojsa Lazic 4. Metrikbasierte Softwarevisualisierung mit dem Reverse-Engineering-Werkzeug CodeCrawler Daniel Brinkmann 5. Annex: CodeCrawler in der Anwendung Benjamin Hagedorn 6. Quellcodezeilenbasierte Softwarevisualisierung Nebojsa Lazic 7. Landschafts- und Stadtmetaphern zur Softwarevisualisierung Benjamin Hagedorn 8. Visualisierung von Softwareevolution Michael Schöbel 9. Ergebnisse und Ausblick Johannes Bohnet Literaturverzeichnis Autorenverzeichnis
1 Einleitung 1.1 Motivation 1.2 Aufgabenstellung 1.3 Aufbau der Arbeit 2 Fachliches Umfeld 2.1 Grid Computing 2.2 Idle Time Computing 3 Ressourcenpartitionierung 3.1 Ressourcenpartitionierung und Scheduling 3.2 Ressourcenpartitionierung in Idle Time Computing 3.2.1 Administrative Kontrolle der Ressourcen 3.2.2 Mindestgarantien zur Sicherstellung der Lauffähigkeit 3.3 Vorhandene Lösungen und verwandte Arbeiten 3.3.3 Ressourcenmanagement im Globus Toolkit 3.3.4 Ressourcenmanagement in Condor 3.3.5 Das GARA Framework 3.3.6 Distributed Resource Management Application API 3.3.7 Grid Resource Allocation Agreement Protocol 3.3.8 SNAP 3.3.9 OGSI-Agreement 3.3.10 PBS/Maui und andere Batch Systeme 3.3.11 Wide Area Distributed Computing 3.3.12 Weitere verwandte Arbeiten 3.3.13 Überlegungen zum Ressourcenbedarf 4 Ressourcenkontrolle in Desktopbetriebssystemen 4.1 Ressourcen 4.2 Ressourcenpartitionierung unter Linux 4.2.14 Festplattenkapazität 4.2.15 Arbeitsspeicher 4.2.16 Netzwerkbandbreite 4.2.17 CPU Kapazität 4.3 Ressourcenpartitionierung unter Microsoft Windows XP 4.3.18 Festplattenkapazität 4.3.19 Arbeitsspeicher 4.3.20 Netzwerkbandbreite 4.3.21 CPU Kapazität 4.4 Fazit 5 Entwurf und Design des Frameworks 5.1 Entwurfsgrundlage - Komponentenarchitektur 5.2 Architektur 5.2.22 Broker Server 5.2.23 Broker Software auf den Clients 5.2.24 Schnittstellen 5.3 Komponententypmodell 5.4 Ressourcenidentifikation und Ressourcenzuordnung 5.5 Anbindung ans Grid 5.6 Datenbankentwurf 5.7 XML RPC Schnittstelle 6 Implementierung 6.1 Broker Server 6.1.25 Datenbank 6.1.26 Komponenten 6.1.27 Webserverskripte 6.1.28 Database Crawler 6.2 Komponenten 6.2.29 Network 6.2.30 DSCP 6.2.31 Quota 6.2.32 FSF 6.3 Linux Client 6.3.33 Broker Client 6.3.34 Komponenten 6.4 Windows Client 6.5 Abhängigkeiten 7 Evaluierung 7.1 Durchgeführte Test- und Anwendungsfälle 7.1.35 Test der Clientsoftware 7.1.36 Test der Serversoftware 7.1.37 Durchführbare Anwendungsfälle 7.2 Evaluierung der Frameworkimplementierung 7.2.38 Performanz der Serverimplementierung 7.2.39 Zuverlässigkeit der Partitionierungen 7.3 Evaluierung von Traffic Shaping mit iproute2 7.3.40 Szenario 1 7.3.41 Szenario 2 7.3.42 Szenario 3 7.3.43 Fazit 8 Zusammenfassung und Ausblick 8.1 Fazit 8.2 Weiterentwicklung 8.2.44 Weiterentwicklungen auf Entwurfsebene 8.2.45 Weiterentwicklungen auf Implementierungsebene Anhang A: Details zum Datenbankentwurf Anhang B: Bildschirmfotos der Weboberfläche Anhang C: Quellcode Linux Broker Client Anhang D: Inhalt des beiliegenden Datenträgers
Vorwort 1. Einleitung 2. Statische vs. dynamische Analyse 3. Kriterien für den Erfolg statischer Quellcodeanalysemethoden 3.1. Theoretische Vorüberlegungen 3.2. 1. Kriterium: Verfügbarkeit des Quellcodes 3.3. 2. Kriterium: Unterstützung der Programmiersprache 3.4. 3. Kriterium: Zulassung von „echten“ Programmen der Problemdomäne 3.5. 4. Kriterium: Bewältigung der auftretenden Komplexität 3.6. 5. Kriterium: Schutz vor böswilliger Speichermanipulation 3.7. 6. Kriterium: Garantie für die Umgebung des laufenden Prozesses 3.8. Fazit 3.9. Verwandte Arbeiten 4. Bewertung von statischen Methoden für C/C++ typische Programme 4.1. Hintergrund 4.2. Prämissen 4.3. 1. Problemfeld: Programmgröße und Interferenz 4.4. 2. Problemfeld: Semantik 4.5. 3. Problemfeld: Programmfluss 4.6. 4. Problemfeld: Zeigerarithmetik 4.7. Dynamische Konzepte zur Erfüllung des fünften Kriteriums auf Quellcodebasis 4.8. Fazit 4.9. Verwandte Arbeiten 5. Kriterien für den Erfolg dynamischer Ansätze 5.1. Hintergrund 5.2. Verfügbarkeit des Quellcodes 5.3. Unterstützung der Programmiersprache 5.4. Zulassung von „echten“ Programmen aus der Problemdomäne 5.5. Bewältigung der auftretenden Komplexität 5.6. Schutz vor böswilliger Speichermanipulation 5.7. Garantie für die Umgebung des laufenden Prozesses 5.8. Fazit 6. Klassifikation und Evaluation dynamischer Ansätze 6.1. Hintergrund 6.2. Quellcodesubstitution 6.3. Binärcodemodifikation/Binary-Rewriting 6.4. Maschinencodeinterpreter 6.5. Intrusion-Detection-Systeme 6.6. Virtuelle Maschinen/Safe Languages 6.7. Mechanismen zur „Härtung“ von bestehenden Code 6.8. SandBoxing/System-Call-Interposition 6.9. Herkömmliche Betriebssystemmittel 6.10. Access-Control-Lists/Domain-Type-Enforcement 6.11. Fazit 7. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von RealTimeBattle 7.1. Vorstellung von RealTimeBattle 7.2. Charakterisierung des Problems 7.3. Alternative Lösungsvarianten/Rekapitulation 7.4. Übertragung der Ergebnisse statischer Analysemethoden auf RealTimeBattle 7.5. Übertragung der Ergebnisse dynamischer Analysemethoden auf RealTimeBattle 7.5.1. Vorstellung der RSBAC basierten Lösung 7.5.2. Vorstellung der Systrace basierten Lösung 7.6. Fazit 7.7. Verwandte Arbeiten 8. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von Asparagus 8.1. Vorstellung von Asparagus 8.2. Charakterisierung des Problems 8.3. Lösung des Problems 8.4. Fazit 8.5. Verwandte Arbeiten 9. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext vom DCL 9.1. Vorstellung des DCL 9.2. Charakterisierung des Problems 9.3. Experimente im DCL und die jeweilige Lösung 9.3.1. Foucaultsches Pendel 9.3.2. Lego Mindstorm Roboter 9.3.3. Hau den Lukas 9.4. Fazit 9.5. Verwandte Arbeiten 10. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext der semiautomatischen Korrektur von Betriebssystemarchitektur-Übungsaufgaben 10.1. Vorstellung des Übungsbetriebes zur Vorlesung „Betriebssystsemarchitektur 10.2. Charakterisierung des Problems 10.3. Lösungsvorschläge 10.3.1. Lösungsvorschläge für das Authentifizierungs-Problem 10.3.2. Lösungsvorschläge für das Transport-Problem 10.3.3. Lösungsvorschläge für das Build-Problem 10.3.4. Lösungsvorschläge für das Ausführungs-Problem 10.3.5. Lösungsvorschläge für das Ressourcen-Problem 10.3.6. Lösungsvorschläge für das Portabilitäts-Problem 10.4. Fazit 10.5. Verwandte Arbeiten 11. Schlussbetrachtungen Literaturverzeichnis Anhang -create_guardedrobot.sh: Die RealTimeBattle Security Infrastructure -vuln.c: Ein durch Pufferüberlauf ausnutzbares Programm -exploit.c: Ein Beispielexploit für vuln.c. -aufg43.c: Lösung für eine Aufgabe im Rahmen der Betriebssystemarchitektur-Übung -Handout: Sichere Ausführung nicht vertrauenswürdiger Programme
1 Introduction 1.1 Project formulation 1.2 Our contribution 2 Pedagogical Aspect 4 2.1 Modern teaching 2.2 Our Contribution 2.2.1 Autonomous and exploratory learning 2.2.2 Human machine interaction 2.2.3 Short multimedia clips 3 Ontology Aspect 3.1 Ontology driven expert systems 3.2 Our contribution 3.2.1 Ontology language 3.2.2 Concept Taxonomy 3.2.3 Knowledge base annotation 3.2.4 Description Logics 4 Natural language approach 4.1 Natural language processing in computer science 4.2 Our contribution 4.2.1 Explored strategies 4.2.2 Word equivalence 4.2.3 Semantic interpretation 4.2.4 Various problems 5 Information Retrieval Aspect 5.1 Modern information retrieval 5.2 Our contribution 5.2.1 Semantic query generation 5.2.2 Semantic relatedness 6 Implementation 6.1 Prototypes 6.2 Semantic layer architecture 6.3 Development 7 Experiments 7.1 Description of the experiments 7.2 General characteristics of the three sessions, instructions and procedure 7.3 First Session 7.4 Second Session 7.5 Third Session 7.6 Discussion and conclusion 8 Conclusion and future work 8.1 Conclusion 8.2 Open questions A Description Logics B Probabilistic context-free grammars
E-learning is a flexible and personalized alternative to traditional education. Nonetheless, existing e-learning systems for IT security education have difficulties in delivering hands-on experience because of the lack of proximity. Laboratory environments and practical exercises are indispensable instruction tools to IT security education, but security education in con-ventional computer laboratories poses the problem of immobility as well as high creation and maintenance costs. Hence, there is a need to effectively transform security laboratories and practical exercises into e-learning forms. This report introduces the Tele-Lab IT-Security architecture that allows students not only to learn IT security principles, but also to gain hands-on security experience by exercises in an online laboratory environment. In this architecture, virtual machines are used to provide safe user work environments instead of real computers. Thus, traditional laboratory environments can be cloned onto the Internet by software, which increases accessibilities to laboratory resources and greatly reduces investment and maintenance costs. Under the Tele-Lab IT-Security framework, a set of technical solutions is also proposed to provide effective functionalities, reliability, security, and performance. The virtual machines with appropriate resource allocation, software installation, and system configurations are used to build lightweight security laboratories on a hosting computer. Reliability and availability of laboratory platforms are covered by the virtual machine management framework. This management framework provides necessary monitoring and administration services to detect and recover critical failures of virtual machines at run time. Considering the risk that virtual machines can be misused for compromising production networks, we present security management solutions to prevent misuse of laboratory resources by security isolation at the system and network levels. This work is an attempt to bridge the gap between e-learning/tele-teaching and practical IT security education. It is not to substitute conventional teaching in laboratories but to add practical features to e-learning. This report demonstrates the possibility to implement hands-on security laboratories on the Internet reliably, securely, and economically.
1. Design and Composition of 3D Geoinformation Services Benjamin Hagedorn 2. Operating System Abstractions for Service-Based Systems Michael Schöbel 3. A Task-oriented Approach to User-centered Design of Service-Based Enterprise Applications Matthias Uflacker 4. A Framework for Adaptive Transport in Service- Oriented Systems based on Performance Prediction Flavius Copaciu 5. Asynchronicity and Loose Coupling in Service-Oriented Architectures Nikola Milanovic
Dynamics in urban environments encompasses complex processes and phenomena such as related to movement (e.g.,traffic, people) and development (e.g., construction, settlement). This paper presents novel methods for creating human-centric illustrative maps for visualizing the movement dynamics in virtual 3D environments. The methods allow a viewer to gain rapid insight into traffic density and flow. The illustrative maps represent vehicle behavior as light threads. Light threads are a familiar visual metaphor caused by moving light sources producing streaks in a long-exposure photograph. A vehicle’s front and rear lights produce light threads that convey its direction of motion as well as its velocity and acceleration. The accumulation of light threads allows a viewer to quickly perceive traffic flow and density. The light-thread technique is a key element to effective visualization systems for analytic reasoning, exploration, and monitoring of geospatial processes.
Die Kombination von Polymeren mit Peptiden vereint die Eigenschaften beider Stoffklassen miteinander. Dabei können die strukturbildenden Eigenschaften der Peptide genutzt werden, um Polymere zu organisieren. In der vorliegenden Arbeit wurde ein Polymer-Peptid-Konjugat verwendet, das sich in Wasser zu Bändern anordnet. Die treibende Kraft für diesen Prozess ist die Anordnung des Peptidteils zu β-Faltblattstrukturen. Das Polymer-Peptid-Aggregat besitzt einen Peptidkern mit funktionalen Oberflächen, der lateral von einer Polyethylenoxidschale umgeben ist. Durch Änderung der Peptidsequenz war es bisher möglich, die Eigenschaften dieser Fasern zu variieren. In der Arbeit wird ein modularer Ansatz zur vielfältigen Modifizierung einer Polymer-Peptid-Faser entwickelt. So ist es möglich, die Eigenschaften der Fasern einzustellen, ohne die strukturbildende β-Faltblattsequenz verändern zu müssen. Um weitere Funktionen an den Fasern anzubringen, wurde die 1,3-dipolaren Addition verwendet. Diese Reaktion beschreibt die konzertierte Umlagerung eines Azides mit einem Alkin. Sie ist in den meisten Lösungsmitteln unter hohen Ausbeuten durchführbar. Im Rahmen der Arbeit wird die Erzeugung von Aziden untersucht und auf die Polymer-Peptid-Fasern übertragen. Der Diazotransfer stellte dabei die Methode der Wahl dar, so können Azidgruppen aus Aminen gewonnen werden. Unter Verwendung der 1,3-dipolaren Addition konnten verschiedene alkinfunktionale Moleküle kovalent an die azidfunktionalisierten Polymer-Peptid-Fasern gebunden werden. So wurde ein Fluoreszenzfarbstoff an die Fasern gebunden, der eine Abbildung der Fasern mittels konfokaler Mikroskopie erlaubte. Weiterhin wurden die Eigenschaften der Fasern durch Addition dreier carboxylfunktionaler Moleküle modifiziert. Diese Fasern konnten weiter genutzt werden, um Kalzium zu binden. Dabei variierte die Anzahl der gebundenen Kalziumionen in Abhängigkeit der jeweiligen Fasermodifikation erheblich. Weitere Untersuchungen, die Morphologie von Kalziumcarbonatkristallen betreffend, werden aktuell durchgeführt. Die kovalente Anbringung eines reduzierenden Zuckers an die Polymer-Peptid-Fasern erlaubt die Abscheidung von Silber aus Tollens Reagenz. Durch eine Entwicklung analog zur Schwarz-Weiss-Photographie können in nachfolgenden Arbeiten so Silberdrähte in Nanogröße erzeugt werden. An die azidfunktionalen Fasern können weitere funktionale Moleküle angebracht werden, um die Eigenschaften und das Anwendungsspektrum der Polymer-Peptid-Fasern zu erweitern.
Submarine landslides can generate local tsunamis posing a hazard to human lives and coastal facilities. Two major related problems are: (i) quantitative estimation of tsunami hazard and (ii) early detection of the most dangerous landslides. This thesis focuses on both those issues by providing numerical modeling of landslide-induced tsunamis and by suggesting and justifying a new method for fast detection of tsunamigenic landslides by means of tiltmeters. Due to the proximity to the Sunda subduction zone, Indonesian coasts are prone to earthquake, but also landslide tsunamis. The aim of the GITEWS-project (German-Indonesian Tsunami Early Warning System) is to provide fast and reliable tsunami warnings, but also to deepen the knowledge about tsunami hazards. New bathymetric data at the Sunda Arc provide the opportunity to evaluate the hazard potential of landslide tsunamis for the adjacent Indonesian islands. I present nine large mass movements in proximity to Sumatra, Java, Sumbawa and Sumba, whereof the largest event displaced 20 km³ of sediments. Using numerical modeling, I compute the generated tsunami of each event, its propagation and runup at the coast. Moreover, I investigate the age of the largest slope failures by relating them to the Great 1977 Sumba earthquake. Continental slopes off northwest Europe are well known for their history of huge underwater landslides. The current geological situation west of Spitsbergen is comparable to the continental margin off Norway after the last glaciation, when the large tsunamigenic Storegga slide took place. The influence of Arctic warming on the stability of the Svalbard glacial margin is discussed. Based on new geophysical data, I present four possible landslide scenarios and compute the generated tsunamis. Waves of 6 m height would be capable of reaching northwest Europe threatening coastal areas. I present a novel technique to detect large submarine landslides using an array of tiltmeters, as a possible tool in future tsunami early warning systems. The dislocation of a large amount of sediment during a landslide produces a permanent elastic response of the earth. I analyze this response with a mathematical model and calculate the theoretical tilt signal. Applications to the hypothetical Spitsbergen event and the historical Storegga slide show tilt signals exceeding 1000 nrad. The amplitude of landslide tsunamis is controlled by the product of slide volume and maximal velocity (slide tsunamigenic potential). I introduce an inversion routine that provides slide location and tsunamigenic potential, based on tiltmeter measurements. The accuracy of the inversion and of the estimated tsunami height near the coast depends on the noise level of tiltmeter measurements, the distance of tiltmeters from the slide, and the slide tsunamigenic potential. Finally, I estimate the applicability scope of this method by employing it to known landslide events worldwide.
Region-Nation-Europa
(2009)
Politische Theorie hat ihre Zeit und ihren Ort. Die Potsdamer Reihe ‚Region-Nation-Europa’ geht von der Region Berlin-Brandenburg in der neuen Mitte Europas aus. Durch den europäischen Integrationsprozess gibt es tief eingreifende Entscheidungen, die von den Bevölkerungen diskutiert und bestätigt werden müssen. Politische Theorie muss in der Fortschrittskrise einer verstädterten Welt urban aufgeklärte Theorie sein, sie ist ein Produkt der Stadt und nicht der Schule.
This thesis investigates the Casimir effect between plates made of normal and superconducting metals over a broad range of temperatures, as well as the Casimir-Polder interaction of an atom to such a surface. Numerical and asymptotical calculations have been the main tools in order to do so. The optical properties of the surfaces are described by dielectric functions or optical conductivities, which are reviewed for common models and have been analyzed with special weight on distributional properties and causality. The calculation of the Casimir energy between two normally conducting plates (cavity) is reviewed and previous work on the contribution to the Casimir energy due to the surface plasmons, present in all metallic cavities, has been generalized to finite temperatures for the first time. In the field of superconductivity, a new analytical continuation of the BCS conductivity to to purely imaginary frequencies has been obtained both inside and outside the extremely dirty limit of vanishing mean free path. The Casimir free energy calculated from this description was shown to coincide well with the values obtained from the two fluid model of superconductivity in certain regimes of the material parameters. The Casimir entropy in a superconducting cavity fulfills the third law of thermodynamics and features a characteristic discontinuity at the phase transition temperature. These effects were equally encountered in the Casimir-Polder interaction of an atom with a superconducting wall. The magnetic dipole coupling of an atom to a metal was shown to be highly sensible to dissipation and especially to the surface currents. This leads to a strong quenching of the magnetic Casimir-Polder energy at finite temperature. Violations of the third law of thermodynamics are encountered in special models, similar to phenomena in the Casimir-effect between two plates, that are debated controversely. None of these effects occurs in the analog electric dipole interaction. The results of this work suggest to reestablish the well-known plasma model as the low temperature limit of a superconductor as in London theory rather than use it for the description of normal metals. Superconductors offer the opportunity to control the dissipation of surface currents to a great extent. This could be used to access experimentally the low frequency optical response of metals, which is strongly connected to the thermal Casimir-effect. Here, differently from corresponding microwave experiments, energy and momentum are independent quantities. A measurement of the total Casimir-Polder interaction of atoms with superconductors seems to be in reach in today’s microchip-based atom-traps and the contribution due to magnetic coupling might be accessed by spectroscopic techniques
Ein genereller Ansatz zur Charakterisierung von biologischen Systemen bietet die Untersuchung des Metaboloms, dessen Analyse als „Metabolomics“ bezeichnet wird. “Omics”- Technologien haben das Ziel, ohne Selektionskriterien möglichst alle Bestandteile einer biologischen Probe zu detektieren (identifizieren und quantifizieren), um daraus Rückschlüsse auf nicht vorhersehbare und somit neuartige Korrelationen in biologischen Systemen zu ziehen. Ein zentrales Dogma in der Biologie besteht in der Kausalität zwischen Gen – Enzym – Metabolite. Perturbationen auf einer Ebene rufen systemische Antworten hervor, die in einem veränderten Phänotyp münden können. Metabolite sind die Endprodukte von zellulären regulatorischen Prozessen, deren Abundanz durch die Resonanz auf genetische Modifikationen oder Umwelteinflüsse zurückzuführen ist. Zudem repräsentieren Metabolite ultimativ den Phänotyp eines Organismus und haben die Fähigkeit als Biomarker zu fungieren. Die integrale Analyse verschiedenster Stoffwechselwegen wie Krebszyklus, Pentosephosphatzyklus oder Calvinzyklus offeriert die Identifikation von metabolischen Mustern. In dieser Arbeit wurden sowohl das targeted Profiling via GC-TOF-MS als auch das untargeted Profiling via GC-TOF-MS und LC-FT-MS als analytische Strategien genutzt, um biologische Systeme anhand ihrer Metabolite zu charakterisieren und um physiologische Muster als Resonanz auf endogene oder exogene Stimuli zu erkennen. Dabei standen die metabolische, phänotypische und genotypische Plastizität von Pflanzen im Fokus der Untersuchungen. Metabolische Varianzen eines Phänotyps reflektieren die genotyp-abhängige Resonanz des Organismus auf umweltbedingte Parameter (abiotischer und biotischer Stress, Entwicklung) und können mit sensitiven Metabolite Profiling Methoden determiniert werden. Diese Anwendungen haben unter anderem auch zum Begriff des „Environmental Metabolomics“ geführt. In Kapitel 2 wurde der Einfluss biotischer Interaktionen von endophytischen Bakterien auf den Metabolismus von Pappelklonen untersucht; Kapitel 3 betrachtet die metabolische Plastizität von Pflanzen im Freiland auf veränderte biotische Interaktionsmuster (Konkurrenz/Diversität/Artenzusammensetzung); Abschließend wurde in Kapitel 4 der Einfluss von spezifischen genetischen Modifikationen an Peroxisomen und den daraus resultierenden veränderten metabolischen Fluss der Photorespiration dargestellt. Aufgrund der sensitiven Analyse- Technik konnten metabolische Phänotypen, die nicht zwingend in einen morphologischen Phänotyp mündeten, in drei biologischen Systemen identifiziert und in einen stoffwechselphysiologischen Kontext gestellt werden. Die drei untersuchten biologischen Systeme – in vitro- Pappeln, Grünland- Arten (Arrhenatherion-Gesellschaft) und der Modellorganismus (Arabidopsis) – belegten anschaulich die Plastizität des Metabolismus der Arten, welche durch endogene oder exogene Faktoren erzeugt wurden.
Die Induktion antioxidativer Enzyme gilt als eine Möglichkeit, die antioxidative Kapazität von Zellen zu steigern und dadurch mit oxidativem Stress assoziierten Erkrankungen (z. B. Herz-Kreislauf-Erkrankungen, Neurodegeneration, Atherosklerose) vorzubeugen. Ausgehend davon wurde in der vorliegenden Arbeit der Dual-Luciferase-Reportergen-(DLR)-Assay zum Nachweis der Induktion der antioxidativen Enzyme Katalase (CAT), zytosolische Glutathion-Peroxidase (GPX1) und Kupfer-Zink-Superoxid-Dismutase (SOD1) entwickelt. Im Zuge dessen wurden drei Säugetierzelllinien (CaCo2, IEC-18, V79) auf ihre Eignung zur Modellzelllinie untersucht. Aufgrund der Transfektionseffizienz wurde die Fibroblastenzelllinie V79 ausgewählt. Zur Gewährleistung eines hohen Substanzdurchsatzes des DLR-Assays wurden bei der Etablierung Parameter wie Kulturplattenformat, DNA-Menge, Luciferasen-Kinetik berücksichtigt. Nach erfolgreicher Etablierung des Versuchs im 96-Well-Format wurden L-Carnitin, Catechin, Epigallocatechingallat, Genistein, Wasserstoffperoxid (H2O2), Natrium-Ascorbat, Paraquat, Quercetin, 12-O-Tetradecanoylphorbol-13-Acetat (TPA) und Trolox in nicht-zytotoxischen Konzentrationen hinsichtlich der Aktivierung des Ratten-CAT-, des humanen GPX1- und des humanen SOD1-Promotors untersucht. Die Bestimmung der maximal tolerierbaren Behandlungskonzentration erfolgte im Vorfeld mittels Resazurintest. Von den zehn Verbindungen zeichneten sich drei Substanzen als potente Induktoren für die SOD1 und die GPX1 aus. Die 24-stündige Behandlung von mit Reportergenkonstrukten transient transfizierten V79-Zellen mit 100 µM Paraquat resultierte in einer Verdopplung der relativen SOD1-Promotor-Aktivität und einer Erhöhung der relativen GPX1-Promotor-Aktivität auf 1,6 bzw. 1,7. Die Stimulation mit 20 µM Genistein oder 10 µM Quercetin führte wiederum zu einer Verdopplung bis Verdreifachung der relativen SOD1- und GPX1-Promotor-Aktivität. Der Promotor der Rattenkatalase konnte demgegenüber nur durch 50 µM H2O2 aktiviert werden (1,5fach). Für diesen DLR-Assays bieten sich folglich Genistein, Quercetin wie auch H2O2 als Referenzsubstanzen an. Um aber eine qualitative Charakterisierung der einzelnen Verbindungen hinsichtlich ihres Induktionspotentials zu gewährleisten, sollten von allen getesteten Substanzen Dosis-Wirkungskurven aufgenommen werden. Zudem wird für den routinemäßigen Einsatz die Verwendung stabil transfizierter Zellen zur Vermeidung von mit der Transfektion verbundenen experimentellen Schwankungen empfohlen.
Der islamistische Dschihad in Pakistan : geopolitische Aspekte eines multikausalen Konfliktes
(2009)
Das Papier fragt nach den (geopolitischen) Interessen der verschiedenen Akteure, um die bisherige Politik realpolitisch auszuleuchten, die Krisenherde in Pakistan darzustellen und zukünftige (Lösungs-)Szenarien zu entwickeln. Im Zentrum steht die Fragestellung, warum das afghanisch-pakistanische Grenzgebiet als Wurzel des islamistischen Terrors gilt. Mit Hilfe einer geostrategischen Analyse der Landesstruktur erfolgt die Vorstellung der verschiedenen Akteursnetzwerke, die in Pakistan ursächlich für die Etablierung des islamistischen Terrors sind. In einem für die pakistanische Zukunft skeptischen Fazit werden Lösungsansätze für die Hauptkonfliktlinien vorgeschlagen, um die geostrategische Mittellage Pakistans zu stabilisieren.
Die Zielsetzung der vorliegenden Arbeit ist die Beschreibung hydrophober Bodeneigenschaften und deren Auswirkungen auf Oberflächenabfluss und Erosion auf verschiedenen Skalen. Die dazu durchgeführten Untersuchungen fanden auf einer Rekultivierungsfläche im Braunkohlegebiet Welzow Süd (Südostdeutschland) statt. Die Prozesse wurden auf drei Skalen untersucht, die von der Plotskala (1m²) über die Hangskala (300m²) bis zur Betrachtung eines kleinen Einzugsgebietes (4ha) reichen. Der Grad der hydrophoben Bodeneigenschaften wurde sowohl direkt, über die Bestimmung des Kontaktwinkel, als auch indirekt, über die Bestimmung der Persistenz, ermittelt. Dabei zeigte sich, dass der Boden im Winterhalbjahr hydrophil reagierte, während er im Sommerhalbjahr hydrophobe Bodeneigenschaften aufwies. Die Ergebnisse deuten darauf hin, dass ansteigende Bodenwassergehalte, die in der Literatur häufig als Ursache für einen Wechsel der Bodeneigenschaften angegeben werden, auf dieser Fläche nicht zu einem Umbruch der Bodenbedingungen führen. Stattdessen kam es als Folge des Auftauens von gefrorenem Boden zu hydrophilen Bodeneigenschaften, die zu einem Anstieg des Bodenwassergehalts führten. Räumliche Unterschiede zeigten sich in den geomorphologischen Einheiten. Rinnen und Rillen wiesen seltener hydrophobe Eigenschaften als die Zwischenrillenbereiche und Kuppen auf. Diese räumlichen und zeitlichen Variabilitäten wirkten sich auch auf den Oberflächenabfluss aus, der als Abflussbeiwert (ABW: Quotient aus Abfluss und Niederschlag) untersucht wurde. Der ABW liegt auf Böden mit hydrophoben Bodeneigenschaften (ABW=0,8) deutlich höher als bei jenen mit hydrophilen Eigenschaften(ABW=0,2), wie sie im Winter oder auf anderem Substrat vorzufinden sind (diese Werte beziehen sich auf die Plotskala). Betrachtet man die Auswirkungen auf unterschiedlichen Skalen, nimmt der Abflussbeiwert mit zunehmender Flächengröße ab (ABW = 0,8 auf der Plotskala, ABW = 0,5 auf der Hangskala und ABW = 0,2 im gesamten Gebiet), was in den hydrophil reagierenden Rillen und Rinnen auf der Hangskala und dem hydrophilen Substrat im Einzugsgebiet begründet ist. Zur Messung der Erosion wurden verschiedene, zum Teil neu entwickelte Methoden eingesetzt, um eine hohe zeitliche und räumliche Auflösung zu erreichen. Bei einer neu entwickelten Methode wird der Sedimentaustrag ereignisbezogen über eine Waage bestimmt. In Kombination mit einer Kippwaage ermöglicht sie die gleichzeitige Messung des Oberflächenabflusses. Die Messapparatur wurde für Gebiete entwickelt, die eine überwiegend grobsandige Textur aufweisen und nur geringe Mengen Ton und Schluff enthalten. Zusätzlich wurden zwei Lasersysteme zur Messung der räumlichen Verteilung der Erosion eingesetzt. Für die erste Methode wurde ein punktuell messender Laser in einer fest installierten Apparatur über die Fläche bewegt und punktuell Höhenunterschiede in einem festen Raster bestimmt. Durch Interpolation konnten Bereiche mit Sedimentabtrag von Akkumulationsbereiche unterschieden werden. Mit dieser Methode können auch größere Flächen vermessen werden (hier 16 m²), allerdings weisen die Messungen in den Übergangsbereichen von Rinne zu Zwischenrille große Fehler auf. Bei der zweiten Methode wird mit einer Messung ein Quadratmeter mit einer hohen räumlichen Auflösung komplett erfasst. Um ein dreidimensionales Bild zu erstellen, müssen insgesamt vier Aufnahmen von jeweils unterschiedlichen Seiten aufgenommen werden. So lassen sich Abtrag und Akkumulation sehr genau bestimmen, allerdings ist die Messung relativ aufwendig und erfasst nur eine kleine Fläche. Zusätzlich wurde der Sedimentaustrag noch auf der Plotskala erfasst. Die Messungen zeigen, korrespondierend zu den Bodeneigenschaften, große Sedimentausträge während des Sommerhalbjahrs und kaum Austräge im Winter. Weiterhin belegen die Ergebnisse eine größere Bedeutung der Rillenerosion gegenüber der Zwischenrillenerosion für Niederschlagsereignisse hoher Intensität (>25 mm/h in einem zehnminütigem Intervall). Im Gegensatz dazu dominierte die Zwischenrillenerosion bei Ereignissen geringerer Intensität (<20 mm/h in einem zehnminütigem Intervall), wobei mindestens 9 mm Niederschlag in einer Intensität von mindesten 3,6 mm/h nötig sind, damit es zur Erosion kommt. Basierend auf den gemessenen Abflüssen und Sedimentausträgen wurden Regressiongleichungen abgeleitet, die eine Berechnung dieser beiden Prozesse für die untersuchte Fläche ermöglichen. Während die Menge an Oberflächenabfluss einen starken Zusammenhang zu der Menge an gefallenem Niederschlag zeigt (r² = 0,9), ist die Berechnung des ausgetragenen Sedimentes eher ungenau (r² = 0,7). Zusammenfassend beschreibt die Arbeit Einflüsse hydrophober Bodeneigenschaften auf verschiedenen Skalen und arbeitet die Auswirkungen, die vor allem auf der kleinen Skala von großer Bedeutung sind, heraus.
Antiker Orient
(1996)
Im Januar 1995 fand in Potsdam - Hermannswerder eine Studentenkonferenz statt, auf der Studenten unterschiedlicher Fakultäten der Potsdamer Universität eine im Herbst 1994 durchgeführte interdisziplinäre Exkursion auf den Sinai in Diskussionbeiträgen und Vorträgen auswerteten. Die Beiträge erschienen in ARCUS 2. Daneben wurden von Fachwissenschaftlern einführende Vorträge zu den Themen Archäologie und Epigraphik im Orient gehalten, die im vorliegenden Heft veröffentlicht werden sollen. Sie reichen von Grabungsberichten, allgemeinen Problemen der Archäologie und Landeskunde bis zu modernen Methoden epigraphischer Arbeit. Mit diesen Beiträgen wurde den Teilnehmern der Tagung ein Einblick in die Breite der Orient-Forschung gegeben. Die Tagung wurde durch das Ministerium für Wissenschaft, Forschung und Kultur des Landes Brandenburg unterstützt.
Sinai
(1995)
Vorwort: In der Zeit vom 3o. September 1994 bis zum 2 1 . Oktober 1994 fand eine Exkursion auf den Sinai statt, die Studenten aus den Bereichen Geschichte, Geographie und Sozialwissenschaften vereinte. Ziel der Unternehmung war es, die Studenten mit der Geographie des Sinai vertraut zu machen, sie in die historischen Gegebenheiten der Landschaft und in archäologische Forschungen einzuführen und den sich abzeichnenden Wandel dieser Region zu beobachten. In Kairo wurde den Studenten eine Einführung in die Probleme des Landes gegeben: Dr. Nastansky, der Leiter des DAAD Kairo, sprach über das Bildungswesen in Ägypten, Dr. Claus von der Gesellschaft für Technische Zusammenarbeit äußerte sich zu Fragen der Entwicklungshilfe, Dr. Pflugrad - Abdel Aziz über deutsche Architekten in Ägypten und Volkmar Wenzel von der deutschen Botschaft zu Fragen der Innen- und Außenpolitik Ägyptens. Auch nach der Exkursion konnten die gewonnenen Erkenntnisse und Erfahrungen durch Vorträge und Diskussionen vertieft werden. Dr. Großmann vom Deutschen Archäologischen Institut sprach zur Architektur auf dem Sinai, Sherif Algohary von der Ägyptischen Atomenergiebehörde zu alternativen Wohn- und Lebensformen in Ägypten und Prof. Kilany, der Vizepräsident der Grünen Partei Ägyptens, zur Umweltsituation des Landes. Zwischen diesen Veranstaltungen gab es Zeit, sich mit den Problemen der 17 Millionenstadt vertraut zu machen, Denkmäler und Museen kennenzulernen und erste Kontakte zu knüpfen. Die Exkursion in Richtung Osten begann mit der Besichtigung einer mittelgroßen Stadt nordöstlich von Kairo, die - in der Wüste neugebaut - aber nicht bezogen war. Das war Anlaß, über Infrastruktur, Planungsansätze und Zielvorstellungen zu diskutieren. Auch die bei der Stadt Bilbeis gelegene unbrauchbar gewordene Schleusenanlage forderte das Nachdenken über den Umgang mit Bauten der Infrastruktur heraus. Der Aufenthalt in Zagazig - einer im Ostdelta gelegenen Großstadt - wurde zu einer Begegnung mit der fünftausendjährigen Geschichte Ägyptens. Der Besuch bei Handwerkern, die wie vor Tausenden von Jahren ihre Krüge herstellen und ihre Ziegel streichen und die Tempelanlage von Teil Basta einerseits, eine moderne Ziegelei und die Einladung der Landwirtschaftlichen Fakultät der Universität andererseits, machen das Spannungsfeld deutlich, in dem Ägypten und Ägypter heute leben. Diese Eindrücke wurden durch den Besuch der riesigen Tempelanlage von Tanis und das in der zweiten Hälfte des 19. Jahrhundert entstände Ismailiya verstärkt. Die eigentliche Sinai-Exkursion erfolgte mit der Aufteilung in Gruppen. Ein Teil befaßte sich, von Kantara ausgehend, mit der speziellen Problematik des Nordsinai, mit dem Suez-Kanal, mit dem Bau des zur Bewässerung dienenden Friedenskanals und dem sozialen Wandel in dieser Region. Eine zweite Gruppe widmete sich der Lebensweise der Beduinen, der Veränderung ihrer Lebenslage und stellte sich kritisch den Problemen des anwachsenden Tourismus. Andere verfolgten Fragen der politischen Entwicklung auf dem Sinai, insbesondere in dem Spannungsfeld zwischen dem arabisch-nationalbewußten Ägypten und dem nicht weniger selbstbewußten Israel. Daß es sich dabei nicht um einen abgeschlossenen Prozeß handelt, macht nicht nur die jüngste Geschichte deutlich, sondern wurde auch jedem Teilnehmer klar, der z.T. im Schutz der Polizei das Land bereiste. Die Exkursion wurde aus Mitteln des Deutschen Akademischen Austauschdienstes und der Universität Potsdam finanziert. Mit ihr sollte das Ziel erreicht werden, die Grundlage für weitere wissenschaftliche Arbeiten zu legen. Der wesentliche Gewinn für jeden lag darin, daß ein unmittelbarer Kontakt zu den Bewohnern des Landes möglich war, der durch eine zuvor erarbeitete Aufgabenstellung zu einer konkreten Erfahrung wurde.
Inhalt: 1. CHARAKTER DER ANLAGE 2. AUFGABENSTELLUNG 3. ZIEL DER ARBEIT 4. ANTIKE QUELLEN 5. FORSCHUNGSGESCHICHTE 6. VERMESSUNG DER ANLAGE (Blatt 1) 7. BESTANDSAUFNAHME (Blatt 2) 8. GRABUNGSARBEITEN 8.1 Die Plana - schichtenweises Abtragen (Blätter 2, 3, 4) 8.2 Anlegen von Schnitten (Blätter 5, 6, 7) 8.3 Zeichnen der Profile (Blätter 8, 9, 10) 8.4 Beschreibung 9. ARCHITEKTURELEMENTE 9.1. Architrave (Blatt 11) 9.2. Säulenfragmente (Blatt 12) 9.3. Hohlkehlen, Steine mit dem Uräusschlangenmotiv und andere Architekturelemente (Blätter 11, 13, 14, 15) 9.4. Fundamentsteine ( Blatt 16) 10. SKULPTUREN (Blätter 17, 18, 19) 11. KLEINFUNDE (Blatt 20) 12. SONSTIGE FUNDE (Blätter 21, 22, 23) 13. KERAMIK 13.1. Vereinfachte Keramikbearbeitung (Blätter 24, 25) 13.2. Verfeinerte Methode der Keramikbearbeitung (Blatt 26) 13.3. Vollständige Keramikgefäße 14. FOTOARBEITEN 15. REKONSTRUKTION
Erster Deutscher IPv6 Gipfel
(2008)
Inhalt: KOMMUNIQUÉ GRUßWORT PROGRAMM HINTERGRÜNDE UND FAKTEN REFERENTEN: BIOGRAFIE & VOTRAGSZUSAMMENFASSUNG 1.) DER ERSTE DEUTSCHE IPV6 GIPFEL AM HASSO PLATTNER INSTITUT IN POTSDAM - PROF. DR. CHRISTOPH MEINEL - VIVIANE REDING 2.) IPV6, ITS TIME HAS COME - VINTON CERF 3.) DIE BEDEUTUNG VON IPV6 FÜR DIE ÖFFENTLICHE VERWALTUNG IN DEUTSCHLAND - MARTIN SCHALLBRUCH 4.) TOWARDS THE FUTURE OF THE INTERNET - PROF. DR. LUTZ HEUSER 5.) IPV6 STRATEGY & DEPLOYMENT STATUS IN JAPAN - HIROSHI MIYATA 6.) IPV6 STRATEGY & DEPLOYMENT STATUS IN CHINA - PROF. WU HEQUAN 7.) IPV6 STRATEGY AND DEPLOYMENT STATUS IN KOREA - DR. EUNSOOK KIM 8.) IPV6 DEPLOYMENT EXPERIENCES IN GREEK SCHOOL NETWORK - ATHANASSIOS LIAKOPOULOS 9.) IPV6 NETWORK MOBILITY AND IST USAGE - JEAN-MARIE BONNIN 10.) IPV6 - RÜSTZEUG FÜR OPERATOR & ISP IPV6 DEPLOYMENT UND STRATEGIEN DER DEUTSCHEN TELEKOM - HENNING GROTE 11.) VIEW FROM THE IPV6 DEPLOYMENT FRONTLINE - YVES POPPE 12.) DEPLOYING IPV6 IN MOBILE ENVIRONMENTS - WOLFGANG FRITSCHE 13.) PRODUCTION READY IPV6 FROM CUSTOMER LAN TO THE INTERNET - LUTZ DONNERHACKE 14.) IPV6 - DIE BASIS FÜR NETZWERKZENTRIERTE OPERATIONSFÜHRUNG (NETOPFÜ) IN DER BUNDESWEHR HERAUSFORDERUNGEN - ANWENDUNGSFALLBETRACHTUNGEN - AKTIVITÄTEN - CARSTEN HATZIG 15.) WINDOWS VISTA & IPV6 - BERND OURGHANLIAN 16.) IPV6 & HOME NETWORKING TECHINCAL AND BUSINESS CHALLENGES - DR. TAYEB BEN MERIEM 17.) DNS AND DHCP FOR DUAL STACK NETWORKS - LAWRENCE HUGHES 18.) CAR INDUSTRY: GERMAN EXPERIENCE WITH IPV6 - AMARDEO SARMA 19.) IPV6 & AUTONOMIC NETWORKING - RANGANAI CHAPARADZA 20.) P2P & GRID USING IPV6 AND MOBILE IPV6 - DR. LATIF LADID
Contents 1. Styling for Service-Based 3D Geovisualization Benjamin Hagedorn 2. The Windows Monitoring Kernel Michael Schöbel 3. A Resource-Oriented Information Network Platform for Global Design Processes Matthias Uflacker 4. Federation in SOA – Secure Service Invocation across Trust Domains Michael Menzel 5. KStruct: A Language for Kernel Runtime Inspection Alexander Schmidt 6. Deconstructing Resources Hagen Overdick 7. FMC-QE – Case Studies Stephan Kluth 8. A Matter of Trust Rehab Al-Nemr 9. From Semi-automated Service Composition to Semantic Conformance Harald Meyer
Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator.
Duplicate detection consists in determining different representations of real-world objects in a database. Recent research has considered the use of relationships among object representations to improve duplicate detection. In the general case where relationships form a graph, research has mainly focused on duplicate detection quality/effectiveness. Scalability has been neglected so far, even though it is crucial for large real-world duplicate detection tasks. In this paper we scale up duplicate detection in graph data (DDG) to large amounts of data and pairwise comparisons, using the support of a relational database system. To this end, we first generalize the process of DDG. We then present how to scale algorithms for DDG in space (amount of data processed with limited main memory) and in time. Finally, we explore how complex similarity computation can be performed efficiently. Experiments on data an order of magnitude larger than data considered so far in DDG clearly show that our methods scale to large amounts of data not residing in main memory.
"Der 8. Mai hat es in sich. Es ist aber nicht nur die Geschichte. Die Woche vom 8. Mai war in diesem Jahr die 'Woche der Wahrheit' im Bundestag, eine Kristallkugel, die einen düsteren Blick in die Zukunft erlaubt. Das wurde durch zwei Ereignisse klar, die etwas verband, ohne dass sie zusammen geplant waren. [...]"
"Nach der Gründung der DDR war es eine Gruppe deutscher Antifaschisten, die an der Spitze der diplomatischen Missionen des neuen Staates auch einen neuen Typ deutscher Repräsentanten verkörperten. Fortan waren es nicht nur ehemalige Mitarbeiter des nationalsozialistischen AA, die nun für Bonn auf internationalem Parkett agierten, sondern angesehene Antifaschisten [...]"
US-Präsident Barack Obama hat die ersten hundert Tage seiner Administration hinter sich. Wie Alexander Höse zeigt, waren diese von einigen Höhen und Tiefen gekennzeichnet; allein die globale Finanzkrise hat ihren Beitrag dazu geleistet. Der Autor gibt einen Überblick über Obamas vermeintlich neue Politik und zeigt, dass sich so viel doch nicht geändert hat.
Zeichnet sich die Außenpolitik der Großen Koalition durch „mangelndes Profil“ aus? Marieluise Beck belegt dies durch die deutsche Reaktion auf die Initiative für eine atomwaffenfreie Welt des US-Präsidenten. Auch bei den Debatten um Menschenrechte, den außenpolitischen Umgang mit China und Russland sowie die Verwendung von selektiven Sanktionen ist die Große Koalition den Anforderungen nicht gewachsen.
Kooperative Beziehungen zu Russland sind angesichts der politisch-wirtschaftlichen Interessenlage, der geopolitischen Realitäten im Osten Europas und des geschichtlichen Hintergrundes in der deutschen politischen Klasse Konsens. Mit dem Begriff der strategischen Partnerschaft werden die deutsch-russischen Beziehungen immer wieder charakterisiert, d. h. diese Kooperation soll weit über die normalen Interessen Deutschlands hinausgehen und eine globalpolitische Dimension erreichen.
Die deutsche Außenpolitik hat seit dem 19. Jahrhundert bis zur Gegenwart viele Veränderungen erlebt. Lange stand Deutschland in einem angespannten Verhältnis zu den europäischen Ordnungen, doch nun ist es ein wichtiger Akteur der internationalen Gemeinschaft. Manfred Görtemaker, Professor für Neuere Geschichte aus Potsdam, zeichnet die wichtigsten Stationen dieser Entwicklung in seinem Beitrag nach.
Deutschland ist wegen seiner verlässlichen Außenpolitik ein weltweit angesehener Partner. Jedoch gelingt es der deutschen Außenpolitik momentan nicht, mit den Entwicklungen der globalisierten Welt Schritt zu halten. Bei wichtigen Themen hat die deutsche Regierung zu selten versucht, Stellung zu beziehen. Die Fähigkeit zur friedlichen Konfliktlösung muss Hauptanliegen unserer Außenpolitik sein. Als Grundlage dafür muss ein ständiger Dialog auch mit den Ländern, die unsere Werte nicht teilen, vorangetrieben werden.
Der Koordinator für deutsch-amerikanische Zusammenarbeit im Auswärtigen Amt, Karsten Voigt, attestiert der Außenpolitik der Großen Koalition eine erfolgreiche, solide Arbeit. Diese setzt die international geschätzte deutsche Kontinuität und Verlässlichkeit fort; auch in den zuletzt als schwierig empfundenen Beziehungen zu Russland und den USA.
Europäische Union als globale Macht : Plädoyer für eine wertbestimmte interregionale Ordnungsmacht
(2009)
Viele betrachten die EU als einen behäbigen Koloss, den widerstreitende Interessen lähmen. Der Autor weist die Kritiker jedoch in ihre Schranken. In seinem flammenden Plädoyer für die EU veranschaulicht er ihre positive Wirkung nach außen. Dabei kommt er zu dem Schluss, dass die Aufgaben Europas als universale Wertegemeinschaft im Bereich des Krisenmanagements und der Friedensstiftung liegen.
Dass die Große Koalition die Kontinuität deutscher Außenpolitik fortsetzt, ist für den Autor, verteidigunspolitischer Sprecher von DIE LINKE, ein Zeichen der Stagnation, sogar des Versagens. Er wirft der Bundesregierung Einfallslosigkeit, mangelndes Engagement und kalte Interessenpolitik vor. Doch neben der umfassenden Kritik werden auch neue Lösungsansätze vorgestellt, die sich auf Erwartungen an die neue US-Administration stützen.
Wie stabil ist die Außenpolitik der Großen Koalition? Aufgrund ihrer Position als stellvertretende außenpolitische Sprecherin der SPD ist es der Autorin möglich, neben den Gemeinsamkeiten auch die entscheidenden Unterschiede zu beleuchten. Vor dem Hintergrund mehrerer Beispiele, wie dem EU-Beitritt der Türkei, stellt sie den Konsens zwischen CDU/ CSU und SPD als fragil heraus.