TY - THES A1 - Abed, Jamil T1 - An iterative approach to operators on manifolds with singularities T1 - Ein iterativer Zugang zu Operatoren auf Mannigfaltigkeiten mit Singularitäten N2 - We establish elements of a new approach to ellipticity and parametrices within operator algebras on manifolds with higher singularities, only based on some general axiomatic requirements on parameter-dependent operators in suitable scales of spaes. The idea is to model an iterative process with new generations of parameter-dependent operator theories, together with new scales of spaces that satisfy analogous requirements as the original ones, now on a corresponding higher level. The "full" calculus involves two separate theories, one near the tip of the corner and another one at the conical exit to infinity. However, concerning the conical exit to infinity, we establish here a new concrete calculus of edge-degenerate operators which can be iterated to higher singularities. N2 - Wir führen einen neuen Zugang ein zu Elliptizität und Parametrices in Operatorenalgebren auf Mannigfaltigkeiten mit höheren Singularitäten, nur basierend auf allgemeinen axiomatischen Voraussetzungen über parameter-abhängige Operatoren in geeigneten Skalen von Räumen. Die Idee besteht darin, ein iteratives Verfahren zu modellieren mit neuen Generationen von parameter-abhängigen Operatortheorien, zusammen mit neuen Skalen von Räumen, die analoge Voraussetzungen erfüllen wie die ursprünglichen Objekte, jetzt auf dem entsprechenden höheren Niveau. Der „volle“ Kalkül besteht aus zwei separaten Theorien, eine nahe der Spitze der Ecke und eine andere am konischen Ausgang nach Unendlich. Allerdings, bezüglich des konischen Ausgangs nach Unendlich, bauen wir hier einen neuen konkreten Kalkül von kanten-entarteten Operatoren auf, der für höhere Singularitäten iteriert werden kann. KW - Pseudo-Differentialoperatoren KW - kanten- und ecken-entartete Symbole KW - Elliptizität KW - Parametrices KW - höhere Singularitäten KW - Pseudo-differential operators KW - edge- and corner-degenerate symbols KW - ellipticity KW - parametrices KW - higher singularities Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44757 ER - TY - THES A1 - Ahnert, Karsten T1 - Compactons in strongly nonlinear lattices T1 - Kompaktonen in stark nichtlinearen Gittern N2 - In the present work, we study wave phenomena in strongly nonlinear lattices. Such lattices are characterized by the absence of classical linear waves. We demonstrate that compactons – strongly localized solitary waves with tails decaying faster than exponential – exist and that they play a major role in the dynamics of the system under consideration. We investigate compactons in different physical setups. One part deals with lattices of dispersively coupled limit cycle oscillators which find various applications in natural sciences such as Josephson junction arrays or coupled Ginzburg-Landau equations. Another part deals with Hamiltonian lattices. Here, a prominent example in which compactons can be found is the granular chain. In the third part, we study systems which are related to the discrete nonlinear Schrödinger equation describing, for example, coupled optical wave-guides or the dynamics of Bose-Einstein condensates in optical lattices. Our investigations are based on a numerical method to solve the traveling wave equation. This results in a quasi-exact solution (up to numerical errors) which is the compacton. Another ansatz which is employed throughout this work is the quasi-continuous approximation where the lattice is described by a continuous medium. Here, compactons are found analytically, but they are defined on a truly compact support. Remarkably, both ways give similar qualitative and quantitative results. Additionally, we study the dynamical properties of compactons by means of numerical simulation of the lattice equations. Especially, we concentrate on their emergence from physically realizable initial conditions as well as on their stability due to collisions. We show that the collisions are not exactly elastic but that a small part of the energy remains at the location of the collision. In finite lattices, this remaining part will then trigger a multiple scattering process resulting in a chaotic state. N2 - In der hier vorliegenden Arbeit werden Wellenphänomene in stark nichtlinearen Gittern untersucht. Diese Gitter zeichnen sich vor allem durch die Abwesenheit von klassischen linearen Wellen aus. Es wird gezeigt, dass Kompaktonen – stark lokalisierte solitäre Wellen, mit Ausläufern welche schneller als exponentiell abfallen – existieren, und dass sie eine entscheidende Rolle in der Dynamik dieser Gitter spielen. Kompaktonen treten in verschiedenen diskreten physikalischen Systemen auf. Ein Teil der Arbeit behandelt dabei Gitter von dispersiv gekoppelten Oszillatoren, welche beispielsweise Anwendung in gekoppelten Josephsonkontakten oder gekoppelten Ginzburg-Landau-Gleichungen finden. Ein weiterer Teil beschäftigt sich mit Hamiltongittern, wobei die granulare Kette das bekannteste Beispiel ist, in dem Kompaktonen beobachtet werden können. Im dritten Teil werden Systeme, welche im Zusammenhang mit der Diskreten Nichtlinearen Schrödingergleichung stehen, studiert. Diese Gleichung beschreibt beispielsweise Arrays von optischen Wellenleitern oder die Dynamik von Bose-Einstein-Kondensaten in optischen Gittern. Das Studium der Kompaktonen basiert hier hauptsächlich auf dem numerischen Lösen der dazugehörigen Wellengleichung. Dies mündet in einer quasi-exakten Lösung, dem Kompakton, welches bis auf numerische Fehler genau bestimmt werden kann. Ein anderer Ansatz, der in dieser Arbeit mehrfach verwendet wird, ist die Approximation des Gitters durch ein kontinuierliches Medium. Die daraus resultierenden Kompaktonen besitzen einen im mathematischen Sinne kompakten Definitionsbereich. Beide Methoden liefern qualitativ und quantitativ gut übereinstimmende Ergebnisse. Zusätzlich werden die dynamischen Eigenschaften von Kompaktonen mit Hilfe von direkten numerischen Simulationen der Gittergleichungen untersucht. Dabei wird ein Hauptaugenmerk auf die Entstehung von Kompaktonen unter physikalisch realisierbaren Anfangsbedingungen und ihre Kollisionen gelegt. Es wird gezeigt, dass die Wechselwirkung nicht exakt elastisch ist, sondern dass ein Teil ihrer Energie an der Position der Kollision verharrt. In endlichen Gittern führt dies zu einem multiplen Streuprozess, welcher in einem chaotischen Zustand endet. KW - Gitterdynamik KW - Hamilton KW - Compacton KW - Soliton KW - granulare Kette KW - Lattice dynamics KW - Hamiltonian KW - Compacton KW - Soliton KW - Granular chain Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48539 ER - TY - THES A1 - Alff, Henryk T1 - Zwischen Geburtsort und Land der Vorväter : die sozialen Netzwerke von Kasachen aus der Mongolei und ihre Rolle im postsowjetischen Migrations- und Inkorporationsprozess T1 - Between place of birth and land of forefathers : the social networks of Kazakhs from Mongolia and their role in the post-soviet migration and incorporation process N2 - Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen. N2 - Since the collapse of the USSR new migration processes such as labour migration between the southern republics of CIS and Russia, and transborder mobility of ethnic groups to their „regions of historical provenance“ emerged on its territory. The dynamic migration processes of ethnic Kazakhs between Mongolia and Kazakhstan analyzed here shows features of the latter type of migration, but also some specific characters. The present dissertation is based on sustained fieldwork carried out in Kazakhstan and Mongolia from 2006 to 2009. Surveys and in-depth interviews were conducted among Mongolian-Kazakh migrants in the environs of Almaty and Kazakhs in Mongolia’s westernmost aymag Bayan-Ölgiy. Additional interviews were held among experts from public, scientific and political institutions to ensure a balanced view on the post-soviet migration and incorporation processes. In the last two decades dense social networks developed between Mongolian-Kazakh migrants in Kazakhstan and their relatives – still or again – living in Mongolia. These networks were perpetuated by the improvement of transportation and communication links connecting both states. Circular migration patterns, regular visits and phone calls as mechanisms of transborder socioeconomic support have intensified during the last years. This interaction has to be classified in the context of legal, political and economical conditions, and, especially, in interdependency with the migration and incorporation policies of the state. The insight of the present analysis can be summarized in short in the following way: (I) The transborder interaction of the Mongolian Kazakhs, which is organized in social networks, is characterized by features of, but in the same way differs from concepts of transnationalism theory. (II) The social relations among Mongolian-Kazakh relatives generate social capital and contribute to everyday support. (III) The local and transborder activities of the Mongolian Kazakhs are to be explained as strategies of socioeconomic incorporation. (IV) A significant part of Mongolian Kazakhs articulate hybrid identification patterns that differ from the majority population and that are yet insufficiently perceived by the political elites in Kazakhstan. KW - Mongolei KW - Kasachstan KW - transnationale Migration KW - Inkorporation KW - soziale Netzwerke KW - Mongolia KW - Kazakhstan KW - transnational migration KW - inkorporation KW - social networks Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49886 ER - TY - THES A1 - Arvidsson, Samuel Janne T1 - Identification of growth-related tonoplast proteins in Arabidopsis thaliana T1 - Identifizierung von wachstumsrelevanten Tonoplast-Proteinen in Arabidopsis thaliana (Ackerschmalwand) N2 - In a very simplified view, the plant leaf growth can be reduced to two processes, cell division and cell expansion, accompanied by expansion of their surrounding cell walls. The vacuole, as being the largest compartment of the plant cell, plays a major role in controlling the water balance of the plant. This is achieved by regulating the osmotic pressure, through import and export of solutes over the vacuolar membrane (the tonoplast) and by controlling the water channels, the aquaporins. Together with the control of cell wall relaxation, vacuolar osmotic pressure regulation is thought to play an important role in cell expansion, directly by providing cell volume and indirectly by providing ion and pH homestasis for the cytosoplasm. In this thesis the role of tonoplast protein coding genes in cell expansion in the model plant Arabidopsis thaliana is studied and genes which play a putative role in growth are identified. Since there is, to date, no clearly identified protein localization signal for the tonoplast, there is no possibility to perform genome-wide prediction of proteins localized to this compartment. Thus, a series of recent proteomic studies of the tonoplast were used to compile a list of cross-membrane tonoplast protein coding genes (117 genes), and other growth-related genes from notably the growth regulating factor (GRF) and expansin families were included (26 genes). For these genes a platform for high-throughput reverse transcription quantitative real time polymerase chain reaction (RT-qPCR) was developed by selecting specific primer pairs. To this end, a software tool (called QuantPrime, see http://www.quantprime.de) was developed that automatically designs such primers and tests their specificity in silico against whole transcriptomes and genomes, to avoid cross-hybridizations causing unspecific amplification. The RT-qPCR platform was used in an expression study in order to identify candidate growth related genes. Here, a growth-associative spatio-temporal leaf sampling strategy was used, targeting growing regions at high expansion developmental stages and comparing them to samples taken from non-expanding regions or stages of low expansion. Candidate growth related genes were identified after applying a template-based scoring analysis on the expression data, ranking the genes according to their association with leaf expansion. To analyze the functional involvement of these genes in leaf growth on a macroscopic scale, knockout mutants of the candidate growth related genes were screened for growth phenotypes. To this end, a system for non-invasive automated leaf growth phenotyping was established, based on a commercially available image capture and analysis system. A software package was developed for detailed developmental stage annotation of the images captured with the system, and an analysis pipeline was constructed for automated data pre-processing and statistical testing, including modeling and graph generation, for various growth-related phenotypes. Using this system, 24 knockout mutant lines were analyzed, and significant growth phenotypes were found for five different genes. N2 - Sehr vereinfacht gesagt kann Blattwachstum auf zwei Prozesse reduziert werden, Zellteilung und Zellexpansion, gefolgt von Zellwandexpansion. Die Vakuole, das größte Organell der Zelle, übt durch die Kontrolle des Wasserhaushaltes der Pflanze eine wichtige Funktion im Zusammenhang mit der Zellexpansion aus. Dies geschieht durch die Regulierung des osmotischen Druckes, durch Import und Export von organischen und anorganischen Ionen über die Vakuolenmembran (den Tonoplast) und durch die Kontrolle ihrer Wasserkanäle (der Aquaporine). Es wird angenommen, dass die Regulierung des vakuolären osmotischen Druckes eine große Rolle bei der Zellexpansion spielt, da der osmotische Druck die Stärke der mechanischen Kraft des Tonoplast auf die Plasmamembran und die Zellwand bestimmt. In dieser Dissertation wird die Rolle von Tonoplastproteinen und ihrer Gene auf die Zellexpansion anhand der Modellpflanze Arabidopsis thaliana (Ackerschmalwand) untersucht, und Kandidaten für wachstumsrelevante Gene werden identifiziert. Da bisher noch kein Signal für die Lokalisierung von Proteinen im Tonoplast identifiziert wurde, gibt es keine Möglichkeit, genomweite Voraussagen über solche Proteinlokalisierungen zu machen. Daher haben wir eine Reihe von aktuellen Proteom-Studien genutzt, um eine Liste von 117 Genen, die für transmembrane tonoplastproteinkodierende Gene kodieren, zusammenzustellen. Zusätzlich wurden andere wachstumsrelevante Gene und Zellzyklus-Gene in die Liste aufgenommen (38 Gene). Die Expression der Gene während der Blattentwicklung sollte mittels einer sensitiven Technik, der quantitativen Polymerasekettenreaktion (qPCR), untersucht werden. Um rasch die für dieses Verfahren notwendigen Oligonukleotide zu entwerfen, wurde ein Computerprogramm („QuantPrime“) entwickelt. Das Programm entwirft automatisch solche Oligonukleotide und überprüft deren Spezifizität in silico auf Ebene der Transkriptome und Genome um Kreuz-Hybridisierungen zu vermeiden, die zu unspezifischen Amplifikationen führen würden. Die qPCR-Plattform wurde in einer Expressions-Studie eingesetzt, um wachstumsrelevante Gen-Kandidaten zu identifizieren. Um wachstumsaktive und nichtaktive Prozesse vergleichen zu können, wurden Proben von unterschiedlichen Bereichen des Blattes zu unterschiedlichen Wachstumsstadien beprobt. Eine musterbasierte Expressionsdatenanalyse wurde eingesetzt, um die Gene hinischtlich ihrer Assoziation mit der Blattexpansionen in eine Rangordnung zu bringen. Die Gene mit dem höchsten Rang wurden als Kandidaten für weitere Experimente ausgewählt. Um die funktionelle Beteiligung dieser Gene auf einer makroskopischen Ebene zu untersuchen, wurden Knockout-Mutanten für die Gen-Kandidaten hinsichtlich ihres Wachstums analysiert. Zu diesem Zweck wurde ein System für die automatisierte Phänotypisierung des Blattwachstums etabliert. Zum einen wurde ein Programm-Paket für detaillierte Annotation von Wachstumsstadien und zum anderen ein Analyse-Paket für automatisierte Datenvorbereitung und statistische Tests entwickelt. Das Analyse-Paket erlaubt die Modellierung und graphische Darstellung verschiedener wachstumsrelevanter Phänotypen. Mit Hilfe dieses Systems wurden 24 Knockout-Mutanten untersucht und signifikante Phänotypen wurden für fünf verschiedene Gene gefunden. KW - Ackerschmalwand KW - Wachstum KW - Tonoplast KW - qPCR KW - Phänotypisierung KW - Arabidopsis KW - Growth KW - Tonoplast KW - qPCR KW - Phenotyping Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52408 ER - TY - THES A1 - Audretsch, Andreas T1 - Zur Entstehung von Good Governance : Gründe, Muster und Bedingungen einer afrikanischen Entwicklung ; das Beispiel Ghana T1 - About the emergence of Good Governance : reasons, models and conditions of an african development ; the example Ghana N2 - Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen. N2 - Ghana is a prime example that a developing country can forge the path towards Good Governance. According to various studies Ghana, compared to other African countries, is a front-runner in this respect. This study asks the question “what are the reasons, models and conditions which lead to Good Governance?”. At the heart of this study is an empirical analysis of the emergence of Good Governance in Ghana and the process of transformation. This process is studied over a long period of time (more than fifty years), in order to be able to judge the long-term developments as well as those in the short-term. The survey is conducted using a “Mixed Methods Approach”, both quantitative and qualitative analyses methods are used. In hindsight this approach proved to be very effective. Initially the quality of Governance is measured over the entire period of time using six different indicators. The improvements and setbacks are then qualitatively analyzed looking for reasons for these developments. This approach uncovered certain consistent systems i.e. circular developments which, for many years, were an obstacle on the road to Good Governance until Ghana was able to break out of the cycle eventually. Democratic change took place, rule of law was improved just as the provision of the population with public goods and the economic development. Even if the various aspects of Good Governance are studied separately at first, it becomes clear that these aspects are inter-related and influence each other. For example it has been shown, that the rule of law influences the stability of the political as well as the economic system and vice-versa. The development of a country can therefore only be understood and explained using a complex Governance-System. The interactions within this system can either be constructive or destructive. The linkages of the various fields are illustrated first in a negative and then in positive scenario which summarize the findings of this survey. At the same time they contribute to the analytic understanding of the processes analyzed. The study clearly shows how Good Governance emerges from an interaction between different factors. It also shows that it is scientifically very rewarding to consider a complex Governance-System in transformation research. In the study many different, empirically compiled, results concerning the particular transformations are brought together in comprehensive scenarios. As there are no surveys analyzing comprehensive Good Governance-transformations, this study takes the first step in this direction. It is clear that transformation towards Good Governance can not be achieved in a short period of time by changing the general framework. Instead, cultural change, learning processes and long-term development are what is important and these have been analyzed in this study using Ghana as an example. In many earlier studies on transformation this temporal aspect was neglected. Ghana has taken many steps towards Good Governance and the future. The analysis of these steps is core aspect of this survey. The country, however, still has a long way to go. KW - Governance KW - Ghana KW - Afrika KW - Demokratisierung KW - Korruption KW - Governance KW - Ghana KW - Africa KW - Democratisation KW - Corruption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42310 ER - TY - THES A1 - Awad, Ahmed Mahmoud Hany Aly T1 - A compliance management framework for business process models T1 - Ein Compliance-Management-Framework für Geschäftsprozessmodelle N2 - Companies develop process models to explicitly describe their business operations. In the same time, business operations, business processes, must adhere to various types of compliance requirements. Regulations, e.g., Sarbanes Oxley Act of 2002, internal policies, best practices are just a few sources of compliance requirements. In some cases, non-adherence to compliance requirements makes the organization subject to legal punishment. In other cases, non-adherence to compliance leads to loss of competitive advantage and thus loss of market share. Unlike the classical domain-independent behavioral correctness of business processes, compliance requirements are domain-specific. Moreover, compliance requirements change over time. New requirements might appear due to change in laws and adoption of new policies. Compliance requirements are offered or enforced by different entities that have different objectives behind these requirements. Finally, compliance requirements might affect different aspects of business processes, e.g., control flow and data flow. As a result, it is infeasible to hard-code compliance checks in tools. Rather, a repeatable process of modeling compliance rules and checking them against business processes automatically is needed. This thesis provides a formal approach to support process design-time compliance checking. Using visual patterns, it is possible to model compliance requirements concerning control flow, data flow and conditional flow rules. Each pattern is mapped into a temporal logic formula. The thesis addresses the problem of consistency checking among various compliance requirements, as they might stem from divergent sources. Also, the thesis contributes to automatically check compliance requirements against process models using model checking. We show that extra domain knowledge, other than expressed in compliance rules, is needed to reach correct decisions. In case of violations, we are able to provide a useful feedback to the user. The feedback is in the form of parts of the process model whose execution causes the violation. In some cases, our approach is capable of providing automated remedy of the violation. N2 - Firmen entwickeln Prozessmodelle um ihre Geschäftstätigkeit explizit zu beschreiben. Geschäftsprozesse müssen verschiedene Arten von Compliance-Anforderungen einhalten. Solche Compliance-Anforderungen entstammen einer Vielzahl von Quellen, z.B. Verordnung wie dem Sarbanes Oxley Act von 2002, interne Richtlinien und Best Practices. Die Nichteinhaltung von Compliance-Anforderungen kann zu gesetzlichen Strafen oder dem Verlust von Wettbewerbsvorteilen und somit dem Verlust von Marktanteilen führen. Im Gegensatz zum klassischen, domänen-unabhängigen Begriff der Korrektheit von Geschäftsprozessen, sind Compliance-Anforderungen domain-spezifisch und ändern sich im Laufe der Zeit. Neue Anforderungen resultieren aus neuen Gesetzen und der Einführung neuer Unternehmensrichtlinien. Aufgrund der Vielzahl der Quellen für Compliance-Anforderungen, können sie unterschiedliche Ziele verfolgen und somit widersprüchliche Aussagen treffen. Schließlich betreffen Compliance-Anforderungen verschiedene Aspekte von Geschäftsprozessen, wie Kontrollfluss- und Datenabhängigkeiten. Auf Grund dessen können Compliance-Prüfungen nicht direkt Hard-coded werden. Vielmehr ist ein Prozess der wiederholten Modellierung von Compliance-Regeln und ihrer anschließenden automatischen Prüfung gegen die Geschäftsprozesse nötig. Diese Dissertation stellt einen formalen Ansatz zur Überprüfung der Einhaltung von Compliance-Regeln während der Spezifikation von Geschäftsprozessen vor. Mit visuellen Mustern ist es möglich, Compliance-Regeln hinsichtlich Kontrollfluss- und Datenabhängigkeiten sowie bedingte Regeln zu spezifizieren. Jedes Muster wird in eine Formel der temporalen Logik abgebildet. Die Dissertation behandelt das Problem der Konsistenzprüfung zwischen verschiedenen Compliance-Anforderungen, wie sie sich aus unterschiedlichen Quellen ergeben können. Ebenfalls zeigt diese Dissertation, wie Compliance-Regeln gegen die Geschäftsprozesse automatisch mittels Model Checking geprüft werden. Es wird aufgezeigt, dass zusätzliche Domänen-Kenntnisse notwendig sind, um richtige Entscheidungen zu treffen. Der vorgestelle Ansatz ermöglicht nützliches Feedback für Modellierer im Fall eines Compliance-Verstoßes. Das Feedback wird in Form von Teilen des Prozessmodells gegeben, deren Ausführung die Verletzung verursacht. In einigen Fällen ist der vorgestellte Ansatz in der Lage, den Compliance-Verstoß automatisch zu beheben. KW - Geschäftsprozessmodelle KW - Compliance KW - Temporallogik KW - Verletzung Erklärung KW - Verletzung Auflösung KW - Business Process Models KW - Compliance KW - Temporal Logic KW - Violation Explanation KW - Violation Resolution Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49222 ER - TY - THES A1 - Baas, Timo T1 - Unter welchen Bedingungen ist ein Beitritt zu einer Währungsunion optimal? : Eine Analyse stabilitätspolitischer Konsequenzen, statischer Effekte und wachstumstheoretischer Implikationen einer Osterweiterung der Europäischen Währungsunion T1 - The optimal strategy for monetary union accession countries N2 - Die Europäische Währungsunion (EWU) umfasst heute 16 Staaten mit insgesamt 321 Millionen Einwohnern, sie ist mit einem Bruttoinlandsprodukt von 22,9 Billionen Euro einer der größten Wirtschaftsräume der Erde. In den nächsten Jahren wird die EWU durch die Aufnahme der 2004 und 2007 beigetretenen neuen EU-Länder weiter wachsen. Da der Beitritt von der Erfüllung der Kriterien von Maastricht abhängt, erfolgt die Erweiterung im Gegensatz zur 5. Erweiterungsrunde der EU nicht als Block, sondern sequentiell. Nach den Beitritten von Slowenien am 1.1.2007 und der Slowakei zum 1.1.2009 steht der Beitritt eines ersten großen Landes in den nächsten Jahren bevor. Daher stößt die Frage der Effekte eines solchen Beitritts seit geraumer Zeit auf breites Interesse in der ökonomischen Literatur. Das Forschungsziel der Dissertation ist es, die theoretischen Wirkungsmechanismen eines Beitritts der neuen Mitgliedsländer zur Europäischen Währungsunion abzubilden. Hierzu werden mögliche stabilitätspolitische Konsequenzen sowie die Auswirkungen eines Beitritts auf die geografische Wirtschaftsstruktur und das Wachstum dieser Länder in theoretischen Modellen abgeleitet. Die direkten Effekte des Beitritts werden in einem angewandt-theoretischen Modell zudem quantifiziert. Insgesamt wird der Beitritt aus drei verschiedenen Perspektiven analysiert: Erstens werden die Konsequenzen der Währungsunion für die Stabilitätspolitik der neuen Mitgliedsländer im Rahmen eines neukeynesianischen Modells betrachtet. Zweitens werden die mit der Transaktionskostensenkung verbundenen Gewinne in einem angewandten Gleichgewichtsmodell quantifiziert. Drittens werden die wachstumstheoretischen Wirkungen der Finanzmarktintegration in einem dynamischen Gleichgewichtsmodell untersucht. Da die drei Aspekte der makroökonomischen Stabilität, der Transaktionskostensenkung und der dynamischen Wirkungen der Finanzmarktintegration weitgehend unabhängig voneinander auftreten, ist die Verwendung verschiedener Modelle mit geringen Kosten verbunden. In der Gesamtbeurteilung des EWU-Beitritts der neuen EU-Länder kommt diese Arbeit zu einer anderen Einschätzung als bisherige Studien. Die in Teil eins ermittelten stabilitätspolitischen Konsequenzen sind entweder neutral oder implizieren bei Beitritt zur Währungsunion eine größere Stabilität. Die in Teil zwei und drei ermittelten statischen und dynamischen Gewinne eines Beitritts sind zudem erheblich, so dass ein schneller Beitritt zur Währungsunion für die neuen EU-Mitgliedsländer vorteilhaft ist. Unter Berücksichtigung der Ziele der Europäischen Wirtschafts- und Währungsunion (EWWU) müssen hierzu jedoch zwei Bedingungen erfüllt sein. Einerseits sind hinreichend entwickelte Finanzmärkte notwendig, um das Ziel einer Konvergenz der neuen und alten EU-Mitgliedsländer zu erreichen. Andererseits wird der Gesamtraum von einer stärkeren Finanzmarktintegration und einer Senkung der Transaktionskosten profitieren, jedoch durch die Übertragung von Schocks der neuen Mitgliedsländer instabiler. Daher kann der Beitritt der neuen Mitgliedsländer zur EWU für den Gesamtraum negativ sein. Diese Kosten sind nur dann zu rechtfertigen, falls über die schnellere Entwicklung der neuen Mitgliedsstaaten eine höhere Stabilität des Währungsraumes erzielt wird. Das neukeynesianische Wachstumsmodell gibt Hinweise, dass eine solche Entwicklung eintreten könnte. N2 - The European Monetary Union consists of 16 member states, is inhabited by 321 million people and has a joint GDP of 22.9 trillion Euros. It is one of the largest economic areas in the world. In the next years the Eurozone will growth further, eight remaining new EU member states will join after their fulfillment of the Maastricht criteria. This makes accession rather sequential, Slovenia joined in 2007, Slovakia in 2009 and Estonia is about to join the Eurozone in 2010. However, these rules open the opportunity for a new EU-member state to postpone membership of EMU in violating the Maastricht criteria like Sweden. The contribution of my Ph.D. thesis is to derive channels of the impact of an EMU accession on the macro-economy. To this aim, I analyze the effects of accession on stability, growth and the geographical structure within theoretical models. The static effects of accession are quantified within a computable equilibrium model. In the conclusions I answer the question whether there are economic reasons for a new member state to avoid EMU membership. The thesis is organized in three parts reflecting three perspectives of accession. Within the first main chapter, the effects of accession on stability are analyzed within a dynamic general equilibrium framework (DSGE). After a short discussion of the effects of monetary arrangements on the stability of an economy, I analyze the well-known arguments of the theory of optimum currency areas. Thereafter the model is used to analyze the transmission of shocks within the monetary union. The second main chapter of the thesis is related to static effects of accession. I show that in five new member states gains from accession outpace costs. Nevertheless, the gain from accession varies among accession countries and economic activities. Overall, small open economies tend to benefit to a greater extent than medium-size, more closed economies. In the third main chapter of the thesis a multiregional growth model is developed. In this model further integration leads to more efficient financial markets which foster growth. Nevertheless, like in all new economic geography (NEG) models, there could be the outcome of a catastrophic agglomeration. Capital could move from poor accession countries to rich western Eurozone countries. To prevent such a catastrophic agglomeration, financial markets should show a minimum degree of development. The conclusion of the thesis supports the accession of new member states to the Eurozone. I argue that the consequences of EMU accession will be either neutral or positive for the accession countries. Since these countries tend to be more instable, they could gain from an equalization of shocks within the Eurozone. The static effects outpace the costs of accession. Within the last years we saw huge progress in the integration of new EU-member states into the international financial system. A catastrophic agglomeration should therefore be unlikely. However, market capitalization remains low and bank lending is less profitable than in western EU-countries so that a risk remains which could justify a postponement of accession. KW - Europäische Währungsunion KW - Erweiterung KW - DSGE KW - CGE KW - European Monetary Union KW - Enlargement KW - DSGE KW - CGE Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43446 ER - TY - THES A1 - Berger, Anja T1 - Entwicklung und Validierung eines Inventars zur Erfassung positiver und negativer Attribute des Geschlechtsrollenselbstkonzepts T1 - Development and validation of a gender role inventory with positive and negative attributes N2 - Das Geschlechtsrollenselbstkonzept, das sich im Laufe der Sozialisation in Auseinandersetzung mit den vorherrschenden Vorstellungen der umgebenden Kultur entwickelt, steht in Beziehung zu Affekten, Kognitionen und Verhaltensweisen in einer Vielzahl von Bereichen. Bisherige GSK-Instrumente messen jedoch nahezu ausschließlich den positiven Aspekt von Maskulinität und Femininität. Die Definition des allgemeinen Selbstkonzepts gibt diese Limitierung auf positive Valenz nicht vor, und aus gesundheitspsychologischer Sicht sowie der Gruppenforschung ist die Bedeutung negativer Eigenschaften zur Selbstbeschreibung bekannt. Vor diesem Hintergrund wurden sieben aufeinander aufbauende Studien durchgeführt mit dem Ziel ein neues Instrument zu entwickeln, deren Items zum einen kulturell aktuellen Eigenschaften zur Selbstbeschreibung entsprechen und zum anderen die Valenzunterschiede dieser Merkmalsbeschreibungen berücksichtigen. Nach einer kritischen empirischen Überprüfung des deutschen BSRI, um Schwächen der Items ausschließlich positiver Valenz aufzudecken, wurde eine neue Skala entwickelt, die von Beginn an auch negative Selbstbeschreibungen berücksichtigte um der Komplexität des geschlechtlichen Selbst gerecht zu werden. Aufgrund der Einschätzungen zur Typizität und sozialen Erwünschtheit sowie mit ersten Resultaten aus der Selbstbeschreibung wurde die Auswahl der Items für die Teilskalen vorgenommen. In zwei weiteren Studien wurden schließlich die vier neu entwickelten Teilskalen des neuen GSK-Inventars einer Validierung unterzogen. Jeder der Teilskalen wurden theoriegeleitet spezifische Konstrukte zugeordnet und es konnte nachgewiesen werden, dass alle Teilskalen ihren eigenen Beitrag zur Vorhersage psychologischer Konzepte leisten können. So standen beispielsweise die negativen maskulinen Eigenschaften in engerer Beziehung zu Aggressivität und machtbezogenen Werten als die positiven Aspekte der Maskulinität. Als Ergebnis dieser Entwicklung stehen am Ende vier kurze, unabhängige, reliable Teilskalen, die positive als auch negative Aspekte von Maskulinität und Femininität abbilden und mittels sehr unterschiedlicher psychologischer Erlebens- und Verhaltenskonstrukte validiert wurden, die die Unabhängigkeit der Skalen belegen und diese für einen Einsatz in der Forschung empfehlen. Die Einführung einer individuellen Wertkomponente im Zuge der Selbstbeschreibung, angelehnt an das bekannte Erwartungs-mal-Wert Modell der Motivations- und Einstellungsforschung, und die daraus mögliche multiplikative Verknüpfung von Selbsteinschätzung und persönlicher Wichtigkeit der Eigenschaften konnten den Aufklärungswert in Bezug auf unterschiedliche Validierungskonstrukte dagegen nicht verbessern und wurden daher nicht ins das Instrument integriert. N2 - The gender role self concept - developed throughout one’s socialisation - has strong relations to a number of affects, cognitions and behaviours. Instruments to asses that part of the self have yet only relied on mostly positive aspects of masculinity and femininity. However, the definition of the self concept is not limited to that kind of merely positive valence, and from health psychology as well as group research the relevance of negative traits for self description is known and proven. Hence, in a series of seven studies, new items were developed that reflect actual cultural descriptions of masculinity and femininity including both, traits of positive and negative valence. Following a critical reflection of the German BSRI, to once more identify its weaknesses of positive scales only, four new scales are introduced, based on evaluations of typicality and social desirability. In two studies those four scales were allocated to specific psychological constructs of emotions and behaviours. It was shown that each single scale has its own relevance regarding the gendered self in prediction of validation constructs: negative masculine traits e.g. had a stronger relationship to aggression and power compared to positive aspects of masculinity. The result of that development and validation process are four short, independent, and reliable scales, that reflect positive as well as negative aspects of masculinity and femininity. The introduction of an individual importance measure as part of the self description - comparable to the expectation-value-model in motivation and attitude research - could not add any predictive power in the validation process and therefore will not be included in the final instrument. KW - Geschlechtsrollenselbstkonzept KW - Maskulinität KW - Femininität KW - PoNeGri KW - Selbstzuschreibung KW - Gender role stereotypes KW - masculinity KW - femininity Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51215 ER - TY - THES A1 - Berndorff, Lothar T1 - Die Prediger der Grafschaft Mansfeld T1 - The preachers of the County Mansfield BT - eine Untersuchung zum geistlichen Sonderbewusstsein in der zweiten Hälfte des 16. Jahrhunderts BT - an investigation into the „special clerical consciousness“ of the second half of the 16th century N2 - Am 22. Oktober 1565 beauftragte der Herzog Julius von Braunschweig-Wolfenbüttel seinen Prediger Martin Chemnitz, das literarische Oeuvre des Magisters Cyriacus Spangenberg auf dem Buchmarkt ausfindig zu machen, prunkvoll binden zu lassen und in den herzöglichen Bibliotheksbestand aufzunehmen. 64 Werke mit gut 6000 Seiten hatte der Mansfelder Generaldekan Spangenberg zu diesem Zeitpunkt bereits verfasst, seine Amtskollegen in der sächsischen Grafschaft hatten ihrerseits 64 Bücher veröffentlicht. Bis zum Abgang Spangenbergs aus Mansfeld 1574 verdoppelte sich die Anzahl geistlicher Veröffentlichungen Mansfelder Provenienz. Obwohl zu Lebzeiten breit rezipiert, hat die Publizistik der geistlichen "Druckmetropole" Mansfeld in der Geschichte und Kirchengeschichte wenig Beachtung gefunden. Die vorliegende Dissertation will diese Forschungslücke schließen. Die Mansfelder Prediger verfassten Lehrpredigten, Festpredigten, Trostpredigten, Katechismen, theologische Disputationen, historische Abhandlungen und geistliche Spiele in hoher Zahl und publizierten diese unter geschickter Ausnutzung der Mechanismen der frühneuzeitlichen Buchmarktes reichsweit. Ihre Veröffentlichungen richteten sich an Theologen, "Weltkinder" und "Einfältige". Sie generierten Verbindungen zu den Kirchen und Potentaten Nord- und Süddeutschlands, Frankreichs und der Niederlande und führten zu Kontroversen mit den großen Bildungszentren Mitteldeutschlands Wittenberg, Leipzig und Jena und deren Landesherren. Die Frage nach der Motivation für das Engagement der Mansfelder Prediger auf dem Buchmarkt steht im Zentrum der Untersuchung, die in einem synoptischen Verfahren den Wunsch nach Teilhaberschaft an der Ausbildung der kirchlichen, herrschaftlichen, sozialen und kommunikativen Strukturen als zentrales Motiv der schreibenden Theologen herausarbeitet, aber auch die Absicht der Autoren beweist, der Grafschaft Mansfeld über das Medium Buch als lutherischem Bildungszentrum in Europa Geltung zu verschaffen. N2 - On October 22nd, 1565 Count Julius von Braunschweig-Wolfenbüttel ordered the preacher Martin Chemnitz to locate the literary works of Magister Cyracus Spangenberg on the market, to have them bound luxuriously and to integrate them into the Countship's library. At this point in time, Spangenberg, superior Decan of Mansfield, had produced 64 books spanning approx. 6000 pages. His colleagues in the County of Saxony had also published 64 books. By the time Spangenberg left Mansfield in 1574, the number of publications with clerical contents stemming from Mansfeld had doubled. Although this opus was widely read during Spangenberg's lifetime, the products of the clerical „print metropolis“ Mansfeld have been later all but ignored in the contexts of both general history and church history. My dissertation aims to close this gap. The preachers of Mansfeld produced large amounts of sermons used for instructional purposes, for celebrations and for condolence as well as catechisms, theological disputations, historical essays and spiritual plays. They published their products in the entire “Reich” (the “Holy German Empire”), using the mechanisms of the book market of their times to their advantage. Their clients were theologians, “Weltkinder” (“children of the world”) and “Einfältige” (“simple persons”), and they established links to the churches and the powers of both northern and southern Germany, of France and of the Netherlands. This led to conflicts with the important centers of education in Central Germany – Wittenberg, Leipzig and Jena – and the potentates of the respective regions. The focal point of this dissertation is the question why the preachers of Mansfeld were so keen on participating in the book market of their time. Using synoptic methods, this dissertation ascertains that the wish to partake in the formulation of the clerical, feudal, social and medial structures of their time was a key motif for the work of those writing theologians, along with to the desire of establishing the County of Mansfeld as a European center of Lutheran education using the book. Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-33896 SN - 978-3-86956-008-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bleßmann, Daniela T1 - Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter T1 - Dynamical influence on stratospheric ozone variability over the Arctic in early winter N2 - Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus. N2 - The ozone amount in early winter provides an indication of the ozone amount in late winter/early spring. The early winter amount is highly variable from year to year due to modification by subsidence, chemical loss and wave activity. This thesis shows that this variability is mainly caused by the dynamics during the Arctic polar vortex formation. Furthermore, it explains the still missing link between early and late winter ozone amount due to dynamics and chemistry. Observational ozone data from satellite based instruments, ozone probes and simulations are used for the investigation of the connection between the composition of the air and the ozone enclosed in the polar vortex. The simulations are calculated with the Lagrangian chemistry/transport model ATLAS. The over area (45–75°N) and time (August-November) averaged vertical component of the Eliassen-Palm flux at 100hPa points to a link between the early winter composition of the air enclosed in the polar vortex and the vortex formation phase. This is only valid for the lower stratosphere, because the component does not satisfy changing conditions for wave propagation throughout the stratosphere by itself. Due to this deficit a new integral quantity based on wave amplitude and properties of the Charney-Drazin criterion is defined to achieve an improvement with height. This new quantity connects the wave activity during vortex formation to the composition of air inside the vortex as well as the distribution of ozone over latitude. An enhanced wave activity leads to a higher proportion of ozone rich air from lower latitudes inside the polar vortex. But chemistry in autumn and early winter removes the interannual variability in the amount of ozone enclosed in the vortex induced by dynamical processes during the formation phase of the Artic polar vortex because ozone relaxes towards equilibrium. An estimation of how relevant these variable dynamical processes are for the Arctic winter ozone abundances is obtained by analysing which fraction of dynamically induced anomalies in ozone persists until mid winter. Model runs with the Lagrangian Chemistry-Transport-Model ATLAS for the winter 1999–2000 are used to assess the fate of ozone anomalies artificially introduced during the vortex formation phase. These runs provide detailed information about the persistence of the induced ozone variability over time, height and latitude. Overall, dynamically induced ozone variability from the vortex formation phase survives longer inside the polar vortex compared to outside and can not significantly contribute to mid-winter variability at levels above 750K potential temperature level. At lower levels increasingly larger fractions of the initial perturbation survive, reaching 90% at 450K potential temperature level. In this vertical range dynamical processes during the vortex formation phase are crucial for the ozone abundance in mid-winter. KW - Stratosphäre KW - Ozon KW - Variabilität KW - Dynamik KW - Chemie-Transport-Modell KW - stratosphere KW - ozone KW - variability KW - dynamics KW - chemistry-transport-model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51394 ER - TY - THES A1 - Blum, Niklas T1 - Formalization of a converged internet and telecommunications service environment T1 - Formalisierung einer konvergenten Telekommunikations- undInternet-Dienstumgebung N2 - The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time. N2 - Das programmierbare Netz, das Ende des 20. Jahrhunderts in der Standardisierung und Forschung für das Intelligente Netz entworfen wurde, wird nun Realität in einem auf das Internet Protokoll basierendem Netz der nächsten Generation (Next Generation Network). Hierfür kommen Prinzipien aus der Informationstechnologie, insbesondere aus dem Bereich dienstorientierte Architekturen (Service-Oriented Architecture / SOA) für die Diensterstellung, -ausführung und -betrieb zum Tragen. SOA bietet hierbei die theoretische Grundlage für Telekommunikationsnetze, vor allem jedoch für die dazugehörigen Dienstplattformen. Diese erlauben dem Telekommunikationsbetreiber seine Position in einem offenen Marktplatz der Dienste auszubauen. Dazu bedarf es allerdings möglichst flexibler Dienstumgebungen, die die Kooperation zwischen Dienstanbietern und Nutzern aus unterschiedlichsten Domänen durch Unterstützung geeigneter Werkzeuge und Mechanismen fördert. Im Rahmen dieser Dissertation definieren wir aufbauend auf Forschungsergebnisse im Bereich Overlay-Netze, Netzabstraktion und Zugriff auf exponierte Dienste eine Service Broker genannte Dienstumgebung für konvergente Internet- und Telekommunikationsdienste. Dieser Service Broker stellt Mechanismen für die Komposition von Diensten und Mediation zwischen unterschiedlichen Dienstparadigmen und Domänenspezifika beim Dienstaufruf zur Verfügung. Der Forschungsbeitrag dieser Arbeit findet auf unterschiedlichen Ebenen statt: Aufbauend auf einer Analyse und Klassifikation von Technologien und Paradigmen aus den Bereichen Informationstechnologie (IT) und Telekommunikation diskutieren wir die Problemstellung der Kooperation von Diensten und deren Komposition über Domänengrenzen hinweg. In einem zweiten Schritt diskutieren wir Methoden der Dienstkomposition und präsentieren eine formalisierte Methode der modellbasierten Diensterstellung. Der Schwerpunkt der Arbeit liegt auf der Spezifikation der Service Broker Dienstumgebung und einem zugrundeliegenden Informations- und Datenmodell. Diese Architektur erlaubt die Komposition und Kooperation von Diensten über Domänengrenzen hinweg, um konvergente Internet- und Telekommunikationsdienste zu realisieren. Hierfür wird ein auf Obligationspolitiken basierendes Regelsystemformalisiert, das Interaktionen zwischen Dienstmerkmalen während der Diensterstellung und -ausführung definiert. KW - Telekommunikation KW - konvergente Dienste KW - Next Generation Network KW - Dienstplattform KW - Dienstkomposition KW - Service Delivery Platform KW - Next Generation Network KW - Service Creation KW - Service convergence KW - Policy Enforcement Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51146 ER - TY - THES A1 - Borchers, Andreas T1 - Glaciomarine sedimentation at the continental margin of Prydz Bay, East Antarctica : implications on palaeoenvironmental changes during the Quaternary T1 - Glaziomarine Sedimentation am Kontinentalrand der Prydz-Bucht, Ostantarktis : Schlussfolgerungen hinsichtlich Veränderungen der Paläoumweltbedingungen während des Quartärs N2 - The Antarctic plays an important role in the global climate system. On the one hand, the Antarctic Ice Sheet is the largest freshwater reservoir on Earth. On the other hand, a major proportion of the global bottom-water formation takes place in Antarctic shelf regions, forcing the global thermohaline circulation. The main goal of this dissertation is to provide new insights into the dynamics and stability of the EAIS during the Quaternary. Additionally, variations in the activity of bottom-water formation and their causes are investigated. The dissertation is a German contribution to the International Polar Year 2007/ 2008 and was funded by the ‘Deutsche Forschungsgesellschaft’ (DFG) within the scope of priority program 1158 ‘Antarctic research with comparative studies in Arctic ice regions’. During RV Polarstern expedition ANT-XXIII/9, glaciomarine sediments were recovered from the Prydz Bay-Kerguelen region. Prydz Bay is a key region for the study of East EAIS dynamics, as 16% of the EAIS are drained through the Lambert Glacier into the bay. Thereby, the glacier transports sediment into Prydz Bay which is then further distributed by calving icebergs or by current transport. The scientific approach of this dissertation is the reconstruction of past glaciomarine environments to infer on the response of the Lambert Glacier-Amery Ice Shelf system to climate shifts during the Quaternary. To characterize the depositional setting, sedimentological methods are used and statistical analyses are applied. Mineralogical and (bio)geochemical methods provide a means to reconstruct sediment provenances and to provide evidence on changes in the primary production in the surface water column. Age-depth models were constructed based on palaeomagnetic and palaeointensity measurements, diatom stratigraphy and radiocarbon dating. Sea-bed surface sediments in the investigation area show distinct variations in terms of their clay minerals and heavy-mineral assemblages. Considerable differences in the mineralogical composition of surface sediments are determined on the continental shelf. Clay minerals as well as heavy minerals provide useful parameters to differentiate between sediments which originated from erosion of crystalline rocks and sediments originating from Permo-Triassic deposits. Consequently, mineralogical parameters can be used to reconstruct the provenance of current-transported and ice-rafted material. The investigated sediment cores cover the time intervals of the last 1.4 Ma (continental slope) and the last 12.8 cal. ka BP (MacRobertson shelf). The sediment deposits were mainly influenced by glacial and oceanographic processes and further by biological activity (continental shelf), meltwater input and possibly gravitational transport. Sediments from the continental slope document two major deglacial events: the first deglaciation is associated with the mid-Pleistocene warming recognized around the Antarctic. In Prydz Bay, the Lambert Glacier-Amery Ice Shelf retreated far to the south and high biogenic productivity commenced or biogenic remains were better preserved due to increased sedimentation rates. Thereafter, stable glacial conditions continued until 400 - 500 ka BP. Calving of icebergs was restricted to the western part of the Lambert Glacier. The deeper bathymetry in this area allows for floating ice shelf even during times of decreased sea-level. Between 400 - 500 ka BP and the last interglacial (marine isotope stage 5) the glacier was more dynamic. During or shortly after the last interglacial the LAIS retreated again due to sea-level rise of 6 - 9 m. Both deglacial events correlate with a reduction in the thickness of ice masses in the Prince Charles Mountains. It indicates that a disintegration of the Amery Ice Shelf possibly led to increased drainage of ice masses from the Prydz Bay hinterland. A new end-member modelling algorithm was successfully applied on sediments from the MacRobertson shelf used to unmix the sand grain size fractions sorted by current activity and ice transport, respectively. Ice retreat on MacRobertson Shelf commenced 12.8 cal. ka BP and ended around 5.5 cal. ka BP. During the Holocene, strong fluctuations of the bottomwater activity were observed, probably related to variations of sea-ice formation in the Cape Darnley polynya. Increased activity of bottom-water flow was reconstructed at transitions from warm to cool conditions, whereas bottom-water activity receded during the mid- Holocene climate optimum. It can be concluded that the Lambert Glacier-Amery Ice Shelf system was relatively stable in terms of climate variations during the Quaternary. In contrast, bottom-water formation due to polynya activity was very sensitive to changes in atmospheric forcing and should gain more attention in future research. N2 - Die Antarktis spielt im globalen Umweltsystem eine tragende Rolle. Mit ihrem mächtigen Eispanzer ist sie nicht nur der größte Süsswasserspeicher auf der Erde, in ihren Schelfregionen wird auch ein Großteil der globalen Bodenwassermassen gebildet, welche die globale thermohaline Zirkulation antreiben. Hauptziel dieser Arbeit, welche einen deutschen Beitrag zum Internationalen Polarjahr 2007/ 2008 liefert, war es, neue Erkenntnisse hinsichtlich der Stabilität des Ostantarktischen Eisschildes während des Quartärs zu liefern. Weiterhin sollten Aussagen über Variationen in der Bildung von Antarktischem Bodenwasser und deren Ursachen getroffen werden. Dazu wurde im Rahmen der ‚Polarstern‘ Expedition ANT-XXIII/9 eine Beprobung glaziomariner Sedimente zwischen Prydz Bucht und Kerguelen Plateau durchgeführt. Diese Region eignet sich zur Untersuchung der Ostantarktischen Eisdynamik besonders gut, da hier der Lambert Gletscher, etwa 16% des Ostantarktischen Eispanzers drainiert. Er transportiert dabei Sediment nach Norden, das schließlich die Prydz Bucht erreicht und durch direkten Transport über kalbende Eisberge oder durch Umlagerung und Verteilung mithilfe von Meeresströmungen weiter verfrachtet wird. Der wissenschaftliche Ansatz dieser Arbeit besteht darin, über die Verteilung dieser Sedimente in Raum und Zeit, d.h. über Variationen des glaziomarinen Paläoregimes, die Reaktion des Lambert Gletschers und des vorgelagerten Amery Schelfeises auf Klimaschwankungen während des Quartärs zu rekonstruieren. Dabei werden sowohl sedimentologische Methoden unter Einbeziehung neuer statistischer Möglichkeiten angewandt, um Sedimentationsprozesse zu charakterisieren, als auch mineralogische und (bio)geochemische Parameter verwendet, um Aussagen über die Herkunft der Sedimente und Änderungen in der Produktivität im Oberflächenwasser treffen zu können. Die Altersbestimmung der Sedimentkerne erfolgte mittels Paläomagnetik, Paläointensitäten, Biostratigraphie und Radiokarbondatierungen. Die Oberflächensedimente im Untersuchungsgebiet zeigen deutliche Unterschiede sowohl hinsichtlich ihrer Tonmineral- als auch Schwermineralzusammensetzung. Beide mineralogischen Parameter zeigen die größten Differerenzen auf dem Schelf. Dort lassen sich deutlich Sedimente der Prydz Bucht von Sedimenten des MacRobertson Shelfes differenzieren. Sie stellen daher ein gutes Hilfsmittel dar, um sowohl die Herkunft von eis- als auch strömungstransportiertem Material zu rekonstruieren. Die untersuchten Sedimentkerne decken den Zeitraum der letzten 1,4 Millionen Jahre (Kontinentalhang) bzw. der letzten 12,8 tausend kal. Jahre v. H. ab (MacRobertson Schelf). Die abgelagerten Sedimente wurden i. W. durch glaziale und ozeanographische Einflüsse geprägt, aber auch durch Bioproduktion (Schelf) bzw. durch Schmelzwassereinträge und möglicherweise gravitative Prozesse (Kontinentalhang). In den Sedimenten des Kontinentalhangs sind zwei starke Enteisungsereignisse überliefert: Das erste Ereignis steht mit dem mittelpleistozänen Klimaoptimum in Verbindung, das auch in anderen antarktischen Regionen nachgewiesen wurde. Es führte in der Prydz Bucht zu einem weitreichenden Rückzug des Lambert Gletscher-Amery Schelfeises (LAIS) und gleichzeitig zu einer hohen Primärproduktion. Danach herrschten bis etwa 400 - 500 tausend Jahre v. H. stabile glaziale Bedingungen. Kalbung von Eisbergen war wahrscheinlich auf den westlichen Teil des Lambert Gletschers begrenzt, wo eine tiefere Bathymetrie auch bei niedrigerem globalen Meeresspiegel noch Aufschwimmen des Gletschereises erlaubt. Zwischen 400 - 500 tausend Jahren v. H. und vermutlich dem letzten Interglazial wurde der Gletscher schließlich wieder dynamischer, um mit oder kurz nach dem letzten Interglazial (Meeresspiegel etwa 6 - 9 m höher) eine weitere Phase deutlichen Rückzuges zu durchlaufen. Beide Ereignisse lassen sich mit Phasen der Eisreduktion in den Prinz Charles Bergen korrelieren, d.h. der Rückzug des Lambert Gletschers hatte möglicherweise ein erhöhtes Nachfließen von Eismassen aus dem Hinterland zur Folge. An den Sedimenten des Schelfkernes wurde ein neu entwickeltes Verfahren der Endmember-Modellierung erfolgreich getestet. Der Eisrückzug auf dem MacRobertson Schelf begann etwa 12,8 tausend kal. Jahre v. H. und war gegen 5,5 tausend kal. Jahre v. H. abgeschlossen. Während des Holozäns kam es zu starken Schwankungen in der Bodenwasseraktivität, die höchst wahrscheinlich mit der Neubildungsrate von Meereis in der Kap Darnley Polynia in Zusammenhang stehen. Besonders auffallend war eine erhöhte Bodenwasseraktivität am Übergang von Warm- zu Kaltphasen bzw. ihr extremer Rückgang während des Mittel-Holozänen Klimaoptimums. Insgesamt zeigen die Ergebnisse der Arbeit, dass sich das LAIS während des Quartärs relativ stabil gegenüber Klimaveränderungen verhalten hat. Die Bodenwasserproduktion in Polynien dagegen reagierte sehr empfindlich auf relative geringe atmosphärische Veränderungen und bedarf in Zukunft verstärkter Aufmerksamkeit. KW - Eisdynamik KW - Bodenwasser KW - Ostantarktis KW - Polynia KW - ice dynamics KW - bottom water KW - East Antarctica KW - polynya Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52620 ER - TY - THES A1 - Borchert, Manuela T1 - Interactions between aqueous fluids and silicate melts : equilibration, partitioning and complexation of trace elements T1 - Wechselwirkungen zwischen wässrigen Fluiden und silikatischen Schmelzen : Verteilung von Spurenelementen N2 - The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr. N2 - Die Entstehung und Entwicklung von Graniten steht seit Jahrzehnten im Fokus vieler geologischer Studien, da sich die Erdkruste zu großen Teilen aus granitoiden Gesteinen zusammensetzt. Von besonderer Bedeutung für die Bildung von granitischen Schmelzen ist neben der Temperatur, der Wassergehalt der Schmelze, da dieser Parameter die chemische Zusammensetzung der Schmelze entscheidend verändern kann. Die Entmischung wässriger Fluide aus Schmelzen führt zur Neuverteilung von Elementen zwischen diesen Phasen. Bedingt durch die geringere Dichte des wässrigen Fluids im Vergleich zur Schmelze und dem Nebengestein, beginnt dieses aus tieferen Erdschichten aufzusteigen. Damit verknüpft ist nicht nur eine räumliche Trennung von Schmelze und Fluid, sondern auch die Alterierung des Nebengestein. Dieser Prozess ist insbesondere bei der Bildung von magmatisch-hydrothermalen Lagerstätten und in späten Entwicklungsstadien magmatischer Komplexe wichtig. Für ein detailliertes Verständnis dieser Prozesse ist es notwendig, das Elementverhalten in solchen Systemen in Abhängigkeit von Parametern wie Temperatur, Druck und chemischer Zusammensetzung des Systems experimentell zu untersuchen, und Elementverteilungskoeffizienten als Funktion dieser Variablen zu bestimmen. Für die Untersuchungen sind insbesondere Spurenelemente geeignet, da diese im Gegensatz zu Hauptelementen nicht essentiell für die Stabilität weiterer auftretender Phasen sind, aber sehr sensibel auf Änderungen intensiver Variablen reagieren können. Zudem werden bei geochemischen Mineral- und Gesteinsanalysen viele Spurenelemente, Spurenelementverhältnisse, und Spurenelementisotope als petrogenetische Indikatoren verwendet, d.h. diese Daten liefern Informationen darüber, wann und in welcher Tiefe und bei welchen chemischen Bedingungen ein Gestein gebildet worden ist, und welche weiteren Prozesse es auf dem Weg zur Erdoberfläche durchlaufen hat. Allerdings sind für vie- le Spurenelemente die Abhängigkeiten der Verteilung zwischen Fluiden und Schmelzen von intensiven Variablen nicht, oder nur unzureichend experimentell untersucht worden. Zusätzlich dazu basiert die Mehrheit der experimentell gewonnenen Verteilungskoeffizienten und deren Interpretation, insbesondere hinsichtlich der Elementkomplexierung im Fluid, auf der Analyse von schnell abgekühlten Phasen. Bisher ist nicht geklärt, ob solche Analysen repräsentativ sind für die Zusammensetzungen der Phasen bei hohen Drücken und Temperaturen. Das Ziel dieser Studie war die Erarbeitung eines experimentellen Datensatzes zur Spu- renelementverteilung zwischen granitischen Schmelzen und wässrigen Fluiden in Abhängigkeit von der Schmelzzusammensetzung, der Salinität des Fluids, des Drucks und der Temperatur. Ein Hauptanliegen der Arbeit bestand in der Weiterentwicklung einer experimentellen Methode bei welcher der Spurenelementgehalt im Fluid in-situ, d.h. unter hohen Drücken und Temperaturen, und im Gleichgewicht mit einer silikatischen Schmelze bestimmt wird. Die so gewonnenen Daten können anschließend mit den Resultaten von Abkühlexperimenten vergli- chen werden, um diese und auch Literaturdaten kritisch zu bewerten. Die Daten aller unter- suchten Spurenelemente dieser Arbeit (Rb, Sr, Ba, La, Y und Yb) zeigen: 1. unter den untersuchten Bedingungen eine Präferenz für die Schmelze unabhängig von der chemischen Zusammensetzung von Schmelze und Fluid, Druck oder Temperatur, 2. die Verwendung von chloridhaltigen Fluiden kann die Verteilungskoeffizienten um 1 bis 2 Größenordnungen anheben und 3. für die Verteilungskoeffizienten von Sr, Ba, La, Y und Yb eine starke Abhängigkeit von der Schmelzzusammensetzung im chloridischen System. Der Vergleich der Daten der verschiedenen Methoden zeigt, dass insbesondere für chloridfreie Fluide große Diskrepanzen zwischen den in-situ Daten und Analysen von abgeschreckten Proben bestehen. Dieses Ergebnis beweist eindeutig, dass beim Abschrecken der Proben Rückreaktionen stattfinden, und dass Daten, welche auf Analysen abgeschreckter Fluide basieren, nur eingeschränkt verwendet werden sollten. Die Variation der Verteilungskoeffizienten von Sr, Ba, La, Yb, und Y als Funktion der Schmelzzusammensetzung ist entweder auf eine Änderung der Komplexierung im Fluid und/oder einen anderen veränderten Einbau dieser Elemente in die Schmelze zurückzuführen. Daher wurde im Rahmen dieser Arbeit erstmals versucht, die Elementkomplexierung in silikatischen Fluiden direkt bei hohen Temperaturen und Drücken zu bestimmen. Die Daten für Sr zeigen, dass abhängig von der Schmelzzusammensetzung unterschiedliche Komplexe stabil sein müssen. KW - Spurenelement-Partitionierung KW - Fluid-Schmelze Wechselwirkung KW - HP-HT Experimente KW - In-Situ-Analyse KW - HDAC KW - trace element partitioning KW - fluid-melt interaction KW - HP-HT experiments KW - in-situ analysis KW - HDAC Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42088 ER - TY - THES A1 - Borković, Vladimir T1 - Evaluation kommunaler Sportprojekte zur sozialen Integration von Heranwachsenden T1 - Evaluation of community sports projects focusing on the social integration of adolescents N2 - Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein. N2 - The objective of the study is the evaluation of a community sports project. The thesis originated from the growing perception that it is not only about initiating and implementing a communal or social project but that the focus is increasingly also on the evaluation of the project work in order to measure its impact on communal, social and personal development and to optimise the implementation as a consequence. The different steps in the definition of the theoretical framework, the data analysis as well as the formulation of the evaluative recommendations were conducted with the pretension to set standards for future evaluation projects. The basic concept of the community sports project “Street Football for Tolerance” is innovative: boys and girls jointly conquer public spaces by playing football. They play without a referee and according to special rules. The project explicitly reaches out to socially disadvantaged adolescents, with the aim that boys and girls are equally involved. KW - Evaluation KW - Sozialisation KW - soziale Integration KW - Straßenfußball KW - evaluation KW - socialisation KW - social integration KW - street football Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48186 SN - 978-3-86956-051-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Brauer, Falk T1 - Extraktion und Identifikation von Entitäten in Textdaten im Umfeld der Enterprise Search T1 - Extraction and identification of entities in text data in the field of enterprise search N2 - Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen. N2 - The automatic information extraction (IE) from unstructured texts enables new ways to access relevant information and analyze text contents, which goes beyond existing technologies for keyword-based search in document collections. However, the development of systems for extracting machine-readable data from text still requires the implementation of domain-specific extraction programs. In particular in the field of enterprise search (the retrieval of information in the enterprise settings), in which a large amount of heterogeneous document types exists, it is often necessary to develop ad-hoc program-modules and to combine them with generic program components to extract by business relevant entities. This is particularly critical, as potentially for each individual application a new IE system must be developed from scratch. In this work we examine efficient methods to develop and execute IE systems in the context of enterprise search and effective algorithms to exploit pre-existing structured data in the business context for the extraction and identification of business entities in documents. The basis of this work is a novel platform for composition of IE systems through the description of the data flow between generic and application-specific IE modules. The platform supports in particular the development and reuse of generic IE modules and is characterized by a higher flexibility as compared to previous methods. A technique developed in this work interprets the document processing as data stream between IE modules and thus enables an extensive parallelization of individual modules. The autonomous execution of each module allows for a significant runtime improvement for individual documents and thus improves response times, e.g. for extraction services. Previous parallelization approaches focused only on an improved throughput for large document collections, e.g., by leveraging distributed instances of an IE system. Information extraction in the context of enterprise search differs for instance from the extraction from the World Wide Web by the fact that usually a variety of structured reference data (corporate databases or terminologies) is available, which often describes the relationships among entities. Furthermore, entity names in a business environment usually follow special characteristics: On the one hand relevant entities such as product identifiers follow certain patterns that are not always known beforehand, but can be inferred using known sample entities, so that unknown entities can be extracted. On the other hand many designators have a more descriptive character (concatenation of descriptive words). The respective references in texts might differ due to the diversity of potential descriptions, often making the identification of such entities difficult. To address IE applications in the presence of available structured data, we study in this work the inference of effective regular expressions from given sample entities. Various generalization and specialization heuristics are used to identify patterns at different syntactic abstraction levels and thus generate regular expressions which promise both high recall and precision. Compared to previous rule learning techniques in the field of information extraction, our technique does not require any annotated document corpus. A method for the identification of entities that are predefined by graph structured reference data is examined as a third contribution. An algorithm is presented which goes beyond an exact string comparison between text and reference data set. It allows for an effective identification and disambiguation of potentially discovered entities by exploitation of approximate matching strategies. The method leverages further relationships among entities for identification and disambiguation. The method presented in this work is superior to previous approaches with regard to precision and recall. KW - Informationsextraktion KW - Enterprise Search KW - Parallele Datenverarbeitung KW - Grammatikalische Inferenz KW - Graph-basiertes Ranking KW - information extraction KW - enterprise search KW - multi core data processing KW - grammar inference KW - graph-based ranking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51409 ER - TY - THES A1 - Böniger, Urs T1 - Attributes and their potential to analyze and interpret 3D GPR data T1 - Attribute und deren Potenzial zur Analyse und Interpretation von 3D Georadardaten N2 - Based on technological advances made within the past decades, ground-penetrating radar (GPR) has become a well-established, non-destructive subsurface imaging technique. Catalyzed by recent demands for high-resolution, near-surface imaging (e.g., the detection of unexploded ordnances and subsurface utilities, or hydrological investigations), the quality of today's GPR-based, near-surface images has significantly matured. At the same time, the analysis of oil and gas related reflection seismic data sets has experienced significant advances. Considering the sensitivity of attribute analysis with respect to data positioning in general, and multi-trace attributes in particular, trace positioning accuracy is of major importance for the success of attribute-based analysis flows. Therefore, to study the feasibility of GPR-based attribute analyses, I first developed and evaluated a real-time GPR surveying setup based on a modern tracking total station (TTS). The combination of current GPR systems capability of fusing global positioning system (GPS) and geophysical data in real-time, the ability of modern TTS systems to generate a GPS-like positional output and wireless data transmission using radio modems results in a flexible and robust surveying setup. To elaborate the feasibility of this setup, I studied the major limitations of such an approach: system cross-talk and data delays known as latencies. Experimental studies have shown that when a minimal distance of ~5 m between the GPR and the TTS system is considered, the signal-to-noise ratio of the acquired GPR data using radio communication equals the one without radio communication. To address the limitations imposed by system latencies, inherent to all real-time data fusion approaches, I developed a novel correction (calibration) strategy to assess the gross system latency and to correct for it. This resulted in the centimeter trace accuracy required by high-frequency and/or three-dimensional (3D) GPR surveys. Having introduced this flexible high-precision surveying setup, I successfully demonstrated the application of attribute-based processing to GPR specific problems, which may differ significantly from the geological ones typically addressed by the oil and gas industry using seismic data. In this thesis, I concentrated on archaeological and subsurface utility problems, as they represent typical near-surface geophysical targets. Enhancing 3D archaeological GPR data sets using a dip-steered filtering approach, followed by calculation of coherency and similarity, allowed me to conduct subsurface interpretations far beyond those obtained by classical time-slice analyses. I could show that the incorporation of additional data sets (magnetic and topographic) and attributes derived from these data sets can further improve the interpretation. In a case study, such an approach revealed the complementary nature of the individual data sets and, for example, allowed conclusions about the source location of magnetic anomalies by concurrently analyzing GPR time/depth slices to be made. In addition to archaeological targets, subsurface utility detection and characterization is a steadily growing field of application for GPR. I developed a novel attribute called depolarization. Incorporation of geometrical and physical feature characteristics into the depolarization attribute allowed me to display the observed polarization phenomena efficiently. Geometrical enhancement makes use of an improved symmetry extraction algorithm based on Laplacian high-boosting, followed by a phase-based symmetry calculation using a two-dimensional (2D) log-Gabor filterbank decomposition of the data volume. To extract the physical information from the dual-component data set, I employed a sliding-window principle component analysis. The combination of the geometrically derived feature angle and the physically derived polarization angle allowed me to enhance the polarization characteristics of subsurface features. Ground-truth information obtained by excavations confirmed this interpretation. In the future, inclusion of cross-polarized antennae configurations into the processing scheme may further improve the quality of the depolarization attribute. In addition to polarization phenomena, the time-dependent frequency evolution of GPR signals might hold further information on the subsurface architecture and/or material properties. High-resolution, sparsity promoting decomposition approaches have recently had a significant impact on the image and signal processing community. In this thesis, I introduced a modified tree-based matching pursuit approach. Based on different synthetic examples, I showed that the modified tree-based pursuit approach clearly outperforms other commonly used time-frequency decomposition approaches with respect to both time and frequency resolutions. Apart from the investigation of tuning effects in GPR data, I also demonstrated the potential of high-resolution sparse decompositions for advanced data processing. Frequency modulation of individual atoms themselves allows to efficiently correct frequency attenuation effects and improve resolution based on shifting the average frequency level. GPR-based attribute analysis is still in its infancy. Considering the growing widespread realization of 3D GPR studies there will certainly be an increasing demand towards improved subsurface interpretations in the future. Similar to the assessment of quantitative reservoir properties through the combination of 3D seismic attribute volumes with sparse well-log information, parameter estimation in a combined manner represents another step in emphasizing the potential of attribute-driven GPR data analyses. N2 - Geophysikalische Erkundungsmethoden haben in den vergangenen Jahrzehnten eine weite Verbreitung bei der zerstörungsfreien beziehungsweise zerstörungsarmen Erkundung des oberflächennahen Untergrundes gefunden. Im Vergleich zur Vielzahl anderer existierender Verfahrenstypen ermöglicht das Georadar (auch als Ground Penetrating Radar bezeichnet) unter günstigen Standortbedingungen Untersuchungen mit der höchsten räumlichen Auflösung. Georadar zählt zu den elektromagnetischen (EM) Verfahren und beruht als Wellenverfahren auf der Ausbreitung von hochfrequenten EM-Wellen, das heisst deren Reflektion, Refraktion und Transmission im Untergrund. Während zweidimensionale Messstrategien bereits weit verbreitet sind, steigt gegenwärtig das Interesse an hochauflösenden, flächenhaften Messstrategien, die es erlauben, Untergrundstrukturen dreidimensional abzubilden. Ein dem Georadar prinzipiell ähnliches Verfahren ist die Reflexionsseismik, deren Hauptanwendung in der Lagerstättenerkundung liegt. Im Laufe des letzten Jahrzehnts führte der zunehmende Bedarf an neuen Öl- und Gaslagerstätten sowie die Notwendigkeit zur optimalen Nutzung existierender Reservoirs zu einer verstärkten Anwendung und Entwicklung sogenannter seismischer Attribute. Attribute repräsentieren ein Datenmaß, welches zu einer verbesserten visuellen Darstellung oder Quantifizierung von Dateneigenschaften führt die von Relevanz für die jeweilige Fragestellung sind. Trotz des Erfolgs von Attributanalysen bei reservoirbezogenen Anwendungen und der grundlegenden Ähnlichkeit von reflexionsseismischen und durch Georadar erhobenen Datensätzen haben attributbasierte Ansätze bisher nur eine geringe Verbreitung in der Georadargemeinschaft gefunden. Das Ziel dieser Arbeit ist es, das Potential von Attributanalysen zur verbesserten Interpretation von Georadardaten zu untersuchen. Dabei liegt der Schwerpunkt auf Anwendungen aus der Archäologie und dem Ingenieurwesen. Der Erfolg von Attributen im Allgemeinen und von solchen mit Berücksichtigung von Nachbarschaftsbeziehungen im Speziellen steht in engem Zusammenhang mit der Genauigkeit, mit welcher die gemessenen Daten räumlich lokalisiert werden können. Vor der eigentlichen Attributuntersuchung wurden deshalb die Möglichkeiten zur kinematischen Positionierung in Echtzeit beim Georadarverfahren untersucht. Ich konnte zeigen, dass die Kombination von modernen selbstverfolgenden Totalstationen mit Georadarinstrumenten unter Verwendung von leistungsfähigen Funkmodems eine zentimetergenaue Positionierung ermöglicht. Experimentelle Studien haben gezeigt, dass die beiden potentiell limitierenden Faktoren - systeminduzierte Signalstöreffekte und Datenverzögerung (sogenannte Latenzzeiten) - vernachlässigt beziehungsweise korrigiert werden können. In der Archäologie ist die Untersuchung oberflächennaher Strukturen und deren räumlicher Gestalt wichtig zur Optimierung geplanter Grabungen. Das Georadar hat sich hierbei zu einem der wohl am meisten genutzten zerstörungsfreien geophysikalischen Verfahren entwickelt. Archäologische Georadardatensätze zeichnen sich jedoch oft durch eine hohe Komplexität aus, was mit der wiederholten anthropogenen Nutzung des oberflächennahen Untergrundes in Verbindung gebracht werden kann. In dieser Arbeit konnte gezeigt werden, dass die Verwendung zweier unterschiedlicher Attribute zur Beschreibung der Variabilität zwischen benachbarten Datenspuren eine deutlich verbesserte Interpretation in Bezug auf die Fragestellung ermöglicht. Des Weiteren konnte ich zeigen, dass eine integrative Auswertung von mehreren Datensätzen (methodisch sowie bearbeitungstechnisch) zu einer fundierteren Interpretation führen kann, zum Beispiel bei komplementären Informationen der Datensätze. Im Ingenieurwesen stellen Beschädigungen oder Zerstörungen von Versorgungsleitungen im Untergrund eine große finanzielle Schadensquelle dar. Polarisationseffekte, das heisst Änderungen der Signalamplitude in Abhängigkeit von Akquisitions- sowie physikalischen Parametern stellen ein bekanntes Phänomen dar, welches in der Anwendung bisher jedoch kaum genutzt wird. In dieser Arbeit wurde gezeigt, wie Polarisationseffekte zu einer verbesserten Interpretation verwendet werden können. Die Überführung von geometrischen und physikalischen Attributen in ein neues, so genanntes Depolarisationsattribut hat gezeigt, wie unterschiedliche Leitungstypen extrahiert und anhand ihrer Polarisationscharakteristika klassifiziert werden können. Weitere wichtige physikalische Charakteristika des Georadarwellenfeldes können mit dem Matching Pursuit-Verfahren untersucht werden. Dieses Verfahren hatte in den letzten Jahren einen großen Einfluss auf moderne Signal- und Bildverarbeitungsansätze. Matching Pursuit wurde in der Geophysik bis jetzt hauptsächlich zur hochauflösenden Zeit-Frequenzanalyse verwendet. Anhand eines modifizierten Tree-based Matching Pursuit Algorithmus habe ich demonstriert, welche weiterführenden Möglichkeiten solche Datenzerlegungen für die Bearbeitung und Interpretation von Georadardaten eröffnen. Insgesamt zeigt diese Arbeit, wie moderne Vermessungstechniken und attributbasierte Analysestrategien genutzt werden können um dreidimensionale Daten effektiv und genau zu akquirieren beziehungsweise die resultierenden Datensätze effizient und verlässlich zu interpretieren. KW - Attributanalyse KW - Georadar KW - Bildbearbeitung KW - attribute analysis KW - ground penetrating radar KW - image processing Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50124 ER - TY - THES A1 - Childs, Liam H. T1 - Bioinformatics approaches to analysing RNA mediated regulation of gene expression T1 - Bioinformatische Methoden zur Analyse von RNA vermittelter Regulation der Gen Expression N2 - The genome can be considered the blueprint for an organism. Composed of DNA, it harbours all organism-specific instructions for the synthesis of all structural components and their associated functions. The role of carriers of actual molecular structure and functions was believed to be exclusively assumed by proteins encoded in particular segments of the genome, the genes. In the process of converting the information stored genes into functional proteins, RNA – a third major molecule class – was discovered early on to act a messenger by copying the genomic information and relaying it to the protein-synthesizing machinery. Furthermore, RNA molecules were identified to assist in the assembly of amino acids into native proteins. For a long time, these - rather passive - roles were thought to be the sole purpose of RNA. However, in recent years, new discoveries have led to a radical revision of this view. First, RNA molecules with catalytic functions - thought to be the exclusive domain of proteins - were discovered. Then, scientists realized that much more of the genomic sequence is transcribed into RNA molecules than there are proteins in cells begging the question what the function of all these molecules are. Furthermore, very short and altogether new types of RNA molecules seemingly playing a critical role in orchestrating cellular processes were discovered. Thus, RNA has become a central research topic in molecular biology, even to the extent that some researcher dub cells as “RNA machines”. This thesis aims to contribute towards our understanding of RNA-related phenomena by applying Bioinformatics means. First, we performed a genome-wide screen to identify sites at which the chemical composition of DNA (the genotype) critically influences phenotypic traits (the phenotype) of the model plant Arabidopsis thaliana. Whole genome hybridisation arrays were used and an informatics strategy developed, to identify polymorphic sites from hybridisation to genomic DNA. Following this approach, not only were genotype-phenotype associations discovered across the entire Arabidopsis genome, but also regions not currently known to encode proteins, thus representing candidate sites for novel RNA functional molecules. By statistically associating them with phenotypic traits, clues as to their particular functions were obtained. Furthermore, these candidate regions were subjected to a novel RNA-function classification prediction method developed as part of this thesis. While determining the chemical structure (the sequence) of candidate RNA molecules is relatively straightforward, the elucidation of its structure-function relationship is much more challenging. Towards this end, we devised and implemented a novel algorithmic approach to predict the structural and, thereby, functional class of RNA molecules. In this algorithm, the concept of treating RNA molecule structures as graphs was introduced. We demonstrate that this abstraction of the actual structure leads to meaningful results that may greatly assist in the characterization of novel RNA molecules. Furthermore, by using graph-theoretic properties as descriptors of structure, we indentified particular structural features of RNA molecules that may determine their function, thus providing new insights into the structure-function relationships of RNA. The method (termed Grapple) has been made available to the scientific community as a web-based service. RNA has taken centre stage in molecular biology research and novel discoveries can be expected to further solidify the central role of RNA in the origin and support of life on earth. As illustrated by this thesis, Bioinformatics methods will continue to play an essential role in these discoveries. N2 - Das Genom eines Organismus enthält alle Informationen für die Synthese aller strukturellen Komponenten und deren jeweiligen Funktionen. Lange Zeit wurde angenommen, dass Proteine, die auf definierten Abschnitten auf dem Genom – den Genen – kodiert werden, die alleinigen Träger der molekularen - und vor allem katalytischen - Funktionen sind. Im Prozess der Umsetzung der genetischen Information von Genen in die Funktion von Proteinen wurden RNA Moleküle als weitere zentrale Molekülklasse identifiziert. Sie fungieren dabei als Botenmoleküle (mRNA) und unterstützen als Trägermoleküle (in Form von tRNA) die Zusammenfügung der einzelnen Aminosäurebausteine zu nativen Proteine. Diese eher passiven Funktionen wurden lange als die einzigen Funktionen von RNA Molekülen angenommen. Jedoch führten neue Entdeckungen zu einer radikalen Neubewertung der Rolle von RNA. So wurden RNA-Moleküle mit katalytischen Eigenschaften entdeckt, sogenannte Ribozyme. Weiterhin wurde festgestellt, dass über proteinkodierende Abschnitte hinaus, weit mehr genomische Sequenzbereiche abgelesen und in RNA Moleküle transkribiert werden als angenommen. Darüber hinaus wurden sehr kleine und neuartige RNA Moleküle identifiziert, die entscheidend bei der Koordinierung der Genexpression beteiligt sind. Diese Entdeckungen rückten RNA als Molekülklasse in den Mittelpunkt moderner molekularbiologischen Forschung und führten zu einer Neubewertung ihrer funktionellen Rolle. Die vorliegende Promotionsarbeit versucht mit Hilfe bioinformatorischer Methoden einen Beitrag zum Verständnis RNA-bezogener Phänomene zu leisten. Zunächst wurde eine genomweite Suche nach Abschnitten im Genom der Modellpflanze Arabidopsis thaliana vorgenommen, deren veränderte chemische Struktur (dem Genotyp) die Ausprägung ausgewählter Merkmale (dem Phänotyp) entscheidend beeinflusst. Dabei wurden sogenannte Ganz-Genom Hybridisierungschips eingesetzt und eine bioinformatische Strategie entwickelt, Veränderungen der chemischen Struktur (Polymorphismen) anhand der veränderten Bindung von genomischer DNA aus verschiedenen Arabidopsis Kultivaren an definierte Proben auf dem Chip zu detektieren. In dieser Suche wurden nicht nur systematisch Genotyp-Phänotyp Assoziationen entdeckt, sondern dabei auch Bereiche identifiziert, die bisher nicht als proteinkodierende Abschnitte annotiert sind, aber dennoch die Ausprägung eines konkreten Merkmals zu bestimmen scheinen. Diese Bereiche wurden desweiteren auf mögliche neue RNA Moleküle untersucht, die in diesen Abschnitten kodiert sein könnten. Hierbei wurde ein neuer Algorithmus eingesetzt, der ebenfalls als Teil der vorliegenden Arbeit entwickelt wurde. Während es zum Standardrepertoire der Molekularbiologen gehört, die chemische Struktur (die Sequenz) eines RNA Moleküls zu bestimmen, ist die Aufklärung sowohl der Struktur als auch der konkreten Funktion des Moleküls weitaus schwieriger. Zu diesem Zweck wurde in dieser Arbeit ein neuer algorithmischer Ansatz entwickelt, der mittels Computermethoden eine Zuordnung von RNA Molekülen zu bestimmten Funktionsklassen gestattet. Hierbei wurde das Konzept der Beschreibung von RNA-Sekundärstrukturen als Graphen genutzt. Es konnte gezeigt werden, dass diese Abstraktion von der konkreten Struktur zu nützlichen Aussagen zur Funktion führt. Des weiteren konnte demonstriert werden, dass graphen-theoretisch abgeleitete Merkmale von RNA-Molekülen einen neuen Zugang zum Verständnis der Struktur-Funktionsbeziehungen ermöglichen. Die entwickelte Methode (Grapple) wurde als web-basierte Anwendung der wissenschaftlichen Welt zur Verfügung gestellt. RNA hat sich als ein zentraler Forschungsgegenstand der Molekularbiologie etabliert und neue Entdeckungen können erwartet werden, die die zentrale Rolle von RNA bei der Entstehung und Aufrechterhaltung des Lebens auf der Erde weiter untermauern. Bioinformatische Methoden werden dabei weiterhin eine essentielle Rolle spielen. KW - de novo ncRNA Vorhersage KW - Vereinigungs-Mapping KW - Support-Vektor-Maschine KW - RNA KW - Genotypisierung KW - de novo ncRNA prediction KW - association mapping KW - support vector machine KW - RNA KW - genotyping Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41284 ER - TY - THES A1 - Chirvasa, Mihaela T1 - Finite difference methods for 1st Order in time, 2nd order in space, hyperbolic systems used in numerical relativity T1 - Finite Differenzen für hyperbolische Gleichungen erster Ordnung in der Zeit, zweiter Ordnung im Raum in der numerischen Relativitätstheorie N2 - This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations. N2 - Diese Doktorarbeit beschäftigt sich mit der Entwicklung numerischer Verfahren für die Diskretisierung des Anfangswertproblems und des Anfangs-Randwertproblems unter Einsatz von finite-Differenzen-Techniken für bestimmte hyperbolischer Systeme erster Ordnung in der Zeit und zweiter Ordnung im Raum. Diese Art von Systemen erscheinen in einigen Formulierungen der Einstein'schen-Feldgleichungen, wie zB. den ADM, BSSN oder NOR Formulierungen, oder der sogenanten verallgemeinerten harmonischen Darstellung. Im Hinblick auf das Anfangswertproblem untersuche ich zunächst tiefgehend die mathematischen Eigenschaften von finite-Differenzen-Operatoren (FDO) erster und zweiter Ordnung mit 2n-facher Genaugigkeit. Anschließend erweitere ich eine in der Literatur beschriebene Methode zur Stabilitätsanalyse für Systeme mit zentrierten FDOs in zweiter und vierter Genauigkeitsordung auf Systeme mit gemischten zentrierten und nicht zentrierten Ableitungsoperatoren 2n-facher Genauigkeit, eingeschlossen zusätzlicher Dämpfungsterme, wie sie bei numerischen Simulationen der allgemeinen Relativitätstheorie üblich sind. Bei der Untersuchung der einfachen Wellengleichung als Fallbeispiel wird besonderes Augenmerk auf die Analyse der Courant-Grenzen und numerischen Geschwindigkeiten gelegt. Obwohl unzentrierte, diskrete Ableitungsoperatoren größere Diskretisierungs-Fehler besitzen als zentrierte Ableitungsoperatoren, wird gezeigt, daß man in bestimmten Situationen eine Dezentrierung des numerischen Moleküls von nur einem Punkt bezüglich des zentrierten FDO eine höhere Genauigkeit des numerischen Systems erzielen kann. Die Wellen-Gleichung in einer Dimension wurde ebenfalls im Hinblick auf das Anfangswertproblem untersucht. In Abhängigkeit des Wertes des sogenannten Shift-Vektors, müssen entweder zwei (vollständig eingehende Welle), eine (eingehende Welle) oder keine Randbedingung (ausgehende Welle) definiert werden. In dieser Arbeit wurden alle drei Fälle mit Hilfe der 'Ghost-point-methode' numerisch simuliert und untersucht, und zwar auf eine Weise, daß alle diese Algorithmen stabil sind und eine 2n-Genauigkeit besitzen. In der 'ghost-point-methode' werden die Evolutionsgleichungen bis zum letzen Punkt im Gitter diskretisiert unter Verwendung von zentrierten FDOs und die zusätzlichen Punkte die am Rand benötigt werden ('Ghost-points') werden unter Benutzung von Randwertbedingungen und Extrapolationen abgeschätzt. Für den Zufluß-Randwert wurde zusätzlich noch eine andere Implementierung entwickelt, welche auf der sogenannten SBP-SAT (Summation by parts-simulatanous approximation term) basiert. In dieser Methode werden die diskreten Ableitungen durch Operatoren angenähert, welche die 'Summation-by-parts' Regeln erfüllen. Die Randwertbedingungen selber werden in zusätzlichen Termen integriert, welche zu den Evolutionsgleichnungen der Punkte nahe des Randes hinzuaddiert werden und zwar auf eine Weise, daß die 'summation-by-parts' Eigenschaften erhalten bleiben. Am Ende dieser Arbeit wurde noch eine eindimensionale (kugelsymmetrische) Version der BSSN Formulierung abgeleitet und einige physikalisch relevanten Anfangs-Randwertprobleme werden diskutiert. Die Randwert-Algorithmen, welche für diesen Fall ausgearbeitet wurden, basieren auf der 'Ghost-point-Methode' and erfüllen die innere 2n-Genauigkeit solange genügend Reibung in den Gleichungen zugefügt wird. KW - Finite Differenzen KW - Wellengleichung KW - numerischen Relativitätstheorie KW - finite differences KW - wave equation KW - numerical relativity Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42135 ER - TY - THES A1 - Creutzfeldt, Noah Angelo Benjamin T1 - The effect of water storages on temporal gravity measurements and the benefits for hydrology T1 - Der Effekt von Wasserspeicher auf zeitabhängige Gravitationsmessungen und der Nutzen für die Hydrologie N2 - Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended. N2 - Zeitabhängigen Gravimetermessungen, die in der Geodäsie und der Geophysik eingesetzt werden, um Variationen des Erdschwerefelds zu messen, werden durch lokale Wasserspeicheränderungen beeinflusst und verursachen – aus dieser Perspektive – ein hydrologisches Störsignal in den Gravimetermessungen. Gleichzeitig bietet der Teil des Gravimetersignals, der durch Wasserspeicheränderungen hervorgerufen wird, das Potential wichtige Informationen über hydrologische Speicher zu gewinnen, da zwar Wasserspeicher eine grundlegende Zustandsgröße hydrologischer Systeme darstellt, jedoch ihre Quantifizierung mit einem hohen Maß an Unsicherheiten auf der Feldskala behaftet ist. Diese Studie untersucht die Beziehung zwischen zeitabhängigen Gravimetermessungen und Wasserspeicheränderungen, um die Gravimetermessungen von dem hydrologischen Störsignal zu bereinigen und um den Nutzen der Gravimetermessungen für die Hydrologie zu erkunden. Dies geschieht am Beispiel des Supraleitgravimeters (SG) des Geodätischen Observatoriums Wettzell in Deutschland. Ein 4D Vorwärtsmodel mit einer räumlich genesteten Diskretisierungsdomäne wurde entwickelt, um die lokalen hydrologischen Masseneffekte auf Gravimetermessungen zu simulieren. Des Weiteren wurde ein intensives Messsystem am Geodätischen Observatorium Wettzell installiert, um die Wasserspeicheränderungen in allen relevanten Speicherkomponenten, also im dem Grundwasser, in der ungesättigten Zone und im Schneespeicher zu messen. Das Monitoringsystem beinhaltete auch einen wägbaren, monolithischen Lysimeter mit Matrixpotentialübertragung, der es uns ermöglichte, zum ersten Mal einen Lysimeter direkt mit einem Gravimeter zu vergleichen. Die Lysimetermessungen wurden in Kombination mit komplementären hydrologischen Beobachtungen und einem 1D-Modell verwendet, um die Wasserspeicheränderungen auf der Feldskala zu bestimmen. Die Gesamtwasserspeicheränderungen wurden bestimmt, Unsicherheiten abgeschätzt und der hydrologische Masseneffekt auf Gravimetermessungen berechnet. Schlussendlich wurde ein einfaches, konzeptionelles, hydrologisches Modell mittels der Zeitreihen von dem SG, Bodenfeuchte- und Grundwassermessungen kalibriert und evaluiert. Das Modell wurde durch einen “Split-Sample-Test” evaluiert und basierend auf unabhängig bestimmten Wasserspeicheränderungen bestimmt auf Grundlage der Lysimetermessungen validiert. Die Simulation des hydrologischen Masseneffektes auf Gravimetermessungen zeigte, dass Wasserspeicheränderungen von einem Meter Höhe entlang der Topographie, einen Erdschwereeffekt von 52 µGal hervorriefen, während in der Geodäsie im Allgemeinen die gleiche Wassermassenvariation in flachem Terrain eine Erdschwereeffekt von nur 42 µGal (Bouguer-Platte) hervorruft. Der Einflussradius der lokalen Wasserspeicheränderungen kann auf 1000 m begrenzt werden, und 50 % bis 80 % des lokalen hydrologischen Erdschweresignals wird in einem Radius von 50 m um den Gravimeter generiert. Wasserspeichervariationen in der Schneedecke, im Oberboden, dem ungesättigten Saprolith und im gelüfteten Aquifer, sind allesamt wichtige Größen der lokalen Wasserbilanz. Mit der Ausnahme von Schnee beeinflussen alle Speicheränderungen die Gravimetermessungen in derselben Größenordnung und sind daher für die Gravimetermessungen von Bedeutung. Ein Vergleich des lokalen hydrologischen Gravitationseffektes mit den SG Residuen zeigte sowohl ereignisbezogene als auch saisonalen Übereinstimmungen. Weiterhin zeigten die Ergebnisse jedoch auch die Grenzen bei der Bestimmung der gesamten lokalen Wasserspeichervariationen mithilfe hydrologischer Punktmessungen auf. Die Ergebnisse des Lysimeter-basierten Ansatzes zeigten, dass SG Residuen mehr noch, als bisher aufgezeigt, durch lokale Wasserspeicheränderungen hervorgerufen werden. Ein Vergleich der Resultate mit anderen Methoden, die in der Vergangenheit zur Korrektur zeitabhängiger Erdschwerebeobachtungen durch Bestimmung des lokalen hydrologischen Masseneffekte verwendet wurden, zeigte, dass die unabhängige Berechnung von Wasserspeicheränderungen durch Lysimetermessungen erheblich verbessert werden kann und dass diese somit eine verbesserte Methode zur Bestimmung des lokalen hydrologischen Erdschwereeffekts darstellt. Die Installation eines Lysimeters ist somit im Zusammenhang mit einer Reduzierung des hydrologischen Störsignals und an Standorten, wo zeitabhängige Erdschwerebeobachtungen für geophysikalische Studien, die über die lokale Hydrologie hinausgehen verwendet werden, zu empfehlen. Aus hydrologischer Sicht zeigte diese Studie, dass die Verwendung von zeitabhängigen Gravimetermessungen als Kalibrierungsdaten die Modellergebnisse im Vergleich zu hydrologischen Punktmessungen verbesserten. Auf Grund ihrer Fähigkeit, über verschiedene Speicherkomponenten und ein größeres Gebiet zu integrieren, bieten Gravimeter verallgemeinerte Informationen über die Gesamtwasserspeicherveränderungen auf der Feldskala. Diese integrative Eigenschaft macht es notwendig, Erdschweredaten in hydrologischen Studien mit großer Vorsicht zu interpretieren. Dennoch können Gravimeter der Hydrologie als neuartiges Messinstrument dienen und die Nutzung von Gravimetern, die speziell für die Beantwortung noch offener Forschungsfragen der Hydrologie entwickelt wurden wird hier empfohlen. KW - Hydrogeopyhsik KW - zeitabhängige Gravitationsvariation KW - Wasserspeicheränderungen KW - Supraleitender Gravimeter (SG) KW - hydrologische Modellierung KW - Hydrogeophysics KW - temporal gravity variations KW - water storage changes KW - superconducting gravimeter (SG) KW - hydrological monitoring and modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48575 ER - TY - THES A1 - Di Giacomo, Domenico T1 - Determination of the energy magnitude ME : application to rapid response purposes and insights to regional/local variabilities T1 - Bestimmung der Erdbeben-Magnitude ME : Anwendung für Echtzeitzwecke und regionale/lokale Variabilitäten N2 - Recent large earthquakes put in evidence the need of improving and developing robust and rapid procedures to properly calculate the magnitude of an earthquake in a short time after its occurrence. The most famous example is the 26 December 2004 Sumatra earthquake, when the limitations of the standard procedures adopted at that time by many agencies failed to provide accurate magnitude estimates of this exceptional event in time to launch early enough warnings and appropriate response. Being related to the radiated seismic energy ES, the energy magnitude ME is a good estimator of the high frequency content radiated by the source which goes into the seismic waves. However, a procedure to rapidly determine ME (that is to say, within 15 minutes after the earthquake occurrence) was required. Here it is presented a procedure able to provide in a rapid way the energy magnitude ME for shallow earthquakes by analyzing teleseismic P‑waves in the distance range 20-98. To account for the energy loss experienced by the seismic waves from the source to the receivers, spectral amplitude decay functions obtained from numerical simulations of Greens functions based on the average global model AK135Q are used. The proposed method has been tested using a large global dataset (~1000 earthquakes) and the obtained rapid ME estimations have been compared to other magnitude scales from different agencies. Special emphasis is given to the comparison with the moment magnitude MW, since the latter is very popular and extensively used in common seismological practice. However, it is shown that MW alone provide only limited information about the seismic source properties, and that disaster management organizations would benefit from a combined use of MW and ME in the prompt evaluation of an earthquake’s tsunami and shaking potential. In addition, since the proposed approach for ME is intended to work without knowledge of the fault plane geometry (often available only hours after an earthquake occurrence), the suitability of this method is discussed by grouping the analyzed earthquakes according to their type of mechanism (strike-slip, normal faulting, thrust faulting, etc.). No clear trend is found from the rapid ME estimates with the different fault plane solution groups. This is not the case for the ME routinely determined by the U.S. Geological Survey, which uses specific radiation pattern corrections. Further studies are needed to verify the effect of such corrections on ME estimates. Finally, exploiting the redundancy of the information provided by the analyzed dataset, the components of variance on the single station ME estimates are investigated. The largest component of variance is due to the intra-station (record-to-record) error, although the inter-station (station-to-station) error is not negligible and is of several magnitude units for some stations. Moreover, it is shown that the intra-station component of error is not random but depends on the travel path from a source area to a given station. Consequently, empirical corrections may be used to account for the heterogeneities of the real Earth not considered in the theoretical calculations of the spectral amplitude decay functions used to correct the recorded data for the propagation effects. N2 - Starke Erdbeben in letzter Zeit zeigten deutlich den steigenden Bedarf nach einer Verbesserung und Entwicklung von stabilen und schnellen Methoden, um die Magnitude eines Erdbebens korrekt innerhalb kürzester Zeit nach dessen Auftreten zu ermitteln. Das bisher bekannteste Fallbeispiel in diesem Zusammenhang stellt das Sumatra-Erdbeben vom 26 Dezember 2004 dar. Dieses außergewöhnliche Ereignis zeigte deutlich die Grenzen der bisher gängigen und von den meisten Behörden zu dieser Zeit verwendeten Methoden zur Ermittlung der Erdbebenmagnitude. So konnte für dieses Beben mit den gängigen Ansätzen zeitnah die Magnitude nicht korrekt bestimmt werden , um eine angemessene Frühwarnung und entsprechende Gegenmaßnahmen einzuleiten. Die Energiemagnitude ME steht in direkter Verbindung mit der abgestrahlten seismischen Energie ES und stellt somit eine guten Abschätzung für den Hochfrequenzanteil dar, der von der Quelle ausgestrahlt wird und in die seismischen Wellen einfließt. Eine Methode, welche eine schnelle Ermittlung von ME ermöglicht (d.h. innerhalb von maximal 15 Minuten nach dem Erdbeben) wäre in diesem Falle benötigt worden. Im Rahmen dieser Arbeit wird eine Methode vorgestellt, die eine solche schnelle Ermittlung der Energiemagnitude ME für oberflächennahe Erdbeben ermöglicht, indem teleseismische P-Wellen im Bereich von 20°-98° analysiert werden. Um den Energieverlust der seismischen Wellen von deren Quelle bis zu den Empfängern angemessen zu berücksichtigen, werden spektrale Amplituden-Abnahmefunktionen verwendet, welche aus numerischen Simulationen von Greenschen Funktionen basierend auf dem durchschnittlichen globalen Modell AK135Q abgeleitet werden. Die vorgestellte Methode wurde mit einem umfangreichen globalen Datensatz (ca. 1000 Erdbeben) getestet, und die zeitnah ermittelten ME-Abschätzungen wurden mit anderen Magnitudenskalen verschiedener Behörden verglichen. Ein Vergleich mit der Momentenmagnitude MW war hierbei von besonderem Interesse, da diese Skala heutzutage weitverbreitet ist und häufig zum Einsatz kommt. Es zeigt sich jedoch, dass MW alleine nur begrenzte Informationen über die seismischen Herdeigenschaften liefern kann, und dass Organisationen des Katastrophenmagements von einer kombinierten Nutzung von MW und ME gerade hinsichtlich der unmittelbaren Evaluierung des tsunamigenen Potentials und der Erschütterungswirkung eines Erdbebens profitieren könnten. Die verwendete Methode zur Ermittlung von ME kommt ohne Wissen über die geometrischen Eigenschaften der Verwerfungszone aus (diese sind meist erst Stunden nach einem Erbeben verfügbar). Entsprechend wird die Eignung dieser Methode durch Eingruppierungen der analysierten Erdbeben nach ihrem Wirkungsmechanismus (Scherbruch, Abschiebung, Aufschiebung, etc.) diskutiert. Für die schnelle Abschätzung von ME ist kein klarer Trend unter Verwendung der verschiedenen Herdflächenlösungen erkennbar. Für ME-Werte, welche standardmäßig vom U.S. Geological Survey mit speziellen Korrekturwerten für die Abstrahlungscharakteristika ermittelt werden, trifft dies jedoch nicht zu. Weitere Untersuchungen sind nötig, um die Auswirkungen solcher Korrekturen auf die ME-Abschätzungen zu verifizieren. Indem die Redundanz der Informationen des analysierten Datensatzes ausgenutzt wurde, konnte die Varianz bei den Einzelstations-ME-Abschätzungen untersucht werden. Die größte Abweichung zeigt sich aufgrund von Intra-Stations-Fehlern (record-to-record), wenngleich auch der Inter-Stations-Fehler (station-to-station) nicht vernachlässigbar ist; so nimmt er für einige Stationen mehrere Magnitudeneinheiten an. Des Weiteren konnte gezeigt werden, dass der Intra-Stations-Anteil des Gesamtfehlers nicht zufällig ist, sondern abhängig vom Wellenweg von einem Quellgebiet zu einer bestimmten Station. Folglich können empirische Korrekturen dazu benutzt werden, den Heterogenitäten der realen Erde gerecht zu werden, welche heutzutage nicht in den theoretischen Kalkulationen der spektralen Amplituden-Abnahmefunktionen zur Korrektur der aufgezeichneten Daten verwendet werden. KW - Erdbeben-Magnitude KW - Quellenparameter KW - Earthquake magnitude KW - source parameters KW - inter- and intra-station variability Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50768 ER -