TY - THES A1 - Orgis, Thomas T1 - Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell T1 - Low-order discontinuous Galerkin discretization in an atmospheric multi-scale model N2 - Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur. N2 - The dynamics of the Earth’s atmosphere encompass a range from microphysical turbulence over convective processes and cloud formation up to planetary wave patterns. For weather forecasting and the investigation of climate over decades and centuries, these are subject to modelling with numerical methods. With progressing development of computer technology, re-development of the dynamical cores of climate models is in order to properly handle processes covered by the increasing resolution. The dynamical core of a model consists of the adaptation(discretization)of the basic equations for the dynamics of mass, energy and momentum for solving them numerically employing computers. The presented work investigates the applicability of a low-order Discontinuous Galerkin (DG) method for atmospheric applications. With equations that include external forces like gravitation and the Coriolis force, that is not given by theory. Necessary changes for stabilizing the method without resorting to slope limiters are presented. For the unmodified method, the basic inability to properly keep atmospheric balances is demonstrated. The developed stabilized model reproduces a set of standard test cases in a wide range of spatial and temporal scales. The solution of the termal wind equation along its characteristics curves, those being identical to the isobars, produces balanced atmospheric states with tunable (barotropic and baroclinic) instability via a prescribed zonal wind field. The constructed instability directly relates to the generation of cyclones. In contrast to earlier works, these balanced states are directly given in the z system (height in meters), without need for elaborate conversion from pressure coordinates. With these constructed states, both as reference state, the deviations from which being considered numerically, and as especially as initial condition subject to a small perturbation, several studies of barotropic and baroclinic instability are conducted via simulations. Particularily, the construction of steady states with configurable zonal flows of certain baroclinity facilitates a simulation-based study of baroclinic instability of differing wavelengths, depending on static stability and vertical wind gradient, in correspondence with stability maps from theoretical considerations in the literature. KW - Atmosphärenmodellierung KW - Unstetiges Galerkin-Verfahren KW - Multiskale KW - Barokline Instabilität KW - thermische Windgleichung KW - atmospheric modelling KW - discontinuous Galerkin method KW - multi-scale KW - baroclinic instability KW - thermal wind equation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70687 ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - Raiser, Christoph T1 - Kompromisse im Europäischen Parlament : eine kultursoziologische Analyse von Entscheidungsprozessen in einer supranationalen Institution T1 - Compromise in the European Parliament : a cultural sociological approach to decision-making processes in a supranational institution N2 - Das Europäische Parlament ist zweifelsohne die mächtigste parlamentarische Versammlung auf supranationaler Ebene. Das provoziert die Frage, wie Entscheidungen in diesem Parlament gefällt werden und wie sie begründet werden können. Darin liegt das Hauptanliegen dieser Arbeit, die zur Beantwortung dieser Frage auf soziologische Ansätze der Erklärung sozialen Handelns zurückgreift und damit einen neuen Zugang zur Beobachtung parlamentarischen Handelns schafft. Dabei arbeitet sie heraus, wie wichtig es ist, bei der Analyse politischer Entscheidungsprozesse zu beachten, wie politische Probleme von Akteuren interpretiert und gegenüber Verhandlungspartnern dargestellt werden. An den Fallbeispielen der Entscheidungsprozesse zur Dienstleistungsrichtlinie, zur Chemikalien-Verordnung REACH und dem TDIP (CIA)-Ausschuss in der Legislaturperiode 2004–2009, wird der soziale Mechanismus dargestellt, der hinter Einigungen im Europäischen Parlament steckt. Kultur als Interpretation der Welt wird so zum Schlüssel des Verständnisses politischer Entscheidungen auf supranationaler Ebene. N2 - The European Parliament is the most powerful parliamentary assembly on the supranational level. However, the question of how and why decisions are being taken in this parliament has been insufficiently addressed so far. This is the main aim of this book, which draws on sociological theories for explaining social action and thus opens up a new approach to the analysis of parliamentary action. It argues that it is necessary to take into account how actors interpret political problems and how they relate to their counterparts in negotiations. In three case studies on decision-making processes in the 6th European Parliament between 2004 and 2009 - Services Directive, REACH and the TDIP (CIA-)committee – the study reconstructs the social mechanism behind compromise in the EP. Culture as the way actors attach meaning to the world is the key to understanding political decisions on the supranational level. KW - Europäisches Parlament KW - Kompromiss KW - Kultur KW - Narration KW - Netzwerkanalyse KW - European Parliament KW - Compromise KW - Culture KW - Narration KW - Network analysis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69560 SN - 978-3-86956-283-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Rogge-Solti, Andreas T1 - Probabilistic Estimation of Unobserved Process Events T1 - Probabilistische Abschätzung Unbeobachteter Prozessereignisse N2 - Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. N2 - Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt. KW - Geschäftsprozessmanagement KW - stochastische Petri Netze KW - Bayessche Netze KW - Probabilistische Modelle KW - Vorhersage KW - Fehlende Daten KW - Process Mining KW - business process management KW - stochastic Petri nets KW - Bayesian networks KW - probabilistic models KW - prediction KW - missing data KW - process mining Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70426 ER - TY - THES A1 - Ahmad, Nadeem T1 - People centered HMI’s for deaf and functionally illiterate users T1 - Menschen zentrierte Mensch-Maschine-Schnittstellen für Schwerhörige und ungeschulte Anwender N2 - The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives. N2 - Das Ziel und die Motivation hinter dieser Forschungsarbeit ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gehörlose und Analphabeten bereitzustellen, welche es ihnen ermöglichen ohne jede menschliche Unterstützung zu arbeiten. Obwohl es in den letzten Jahren technologische Fortschritte gab, garantiert allein die Verfügbarkeit von Technik nicht automatisch die Zugänglichkeit zu Informations- und Kommunikationstechnologien (IKT). Umfangreiche Verwendung von Texten in Menüs bis hin zu Dokumenten führen dazu, dass Gehörlose und funktionale Analphabeten auf diese Dienste, die auf Computersystemen existieren, nicht zugreifen können. Folglich stellen die meisten bestehenden EDV-Anwendungen für diejenigen eine Hürde dar, die nicht fließend lesen können. Onlinetechnologien für solche Art von Gruppen sollten in kontinuierlichem Austausch mit den Hauptnutzern entwickelt werden und gründliche Untersuchung ihrer Einschränkungen, Anforderungen und Nutzungsbarrieren beinhalten. In dieser Forschungsarbeit untersuche ich vorhandene Tools im Bereich von Sprach-, Web- und anderen Multimedia-Technologien, um Lernlücken zu identifizieren und Wege zu erforschen, welche die Informationsalphabetisierung für Gehörlose und Analphabeten erweitert. Ich arbeitete an der Entwicklung einer nutzerzentrierten Schnittstelle, um die Fähigkeiten von Gehörlosen und Nutzern mit schlechter Alphabetisierung durch Verbesserung der lexikalischen Ressourcen und durch Auswertung mehrerer Multimediaschnittstellen zu erhöhen. Die Schnittstelle des plattformunabhängigen, italienischen Gebärdensprachen (LIS) Wörterbuches wurde entwickelt, um die lexikalischen Quellen für gehörlose Anwender zu verbessern. Ich integriere die LIS-lexikalischen Ressourcen mit der MultiWordNet (MWN)-Datenbank, um das erste LIS MultiWordNet (LMWN) zu bilden. LMWN enthält Informationen über lexikalische Beziehungen zwischen Wörtern, semantische Beziehungen zwischen lexikalischen Konzepten (Synsets), Gemeinsamkeiten zwischen italienischer und Gebärdensprache-lexikalischen Konzepten und semantischen Feldern (Domänen). Der Ansatz erhöht das Verständnis der tauben Nutzer geschriebene, italienischen Sprache zu verstehen und zeigt, dass ein relativ kleiner Satz an Lexika den wesentlichen Teil der MWN abdecken kann. Die Integration von LIS-Zeichen mit MWN machte es zu einem nützlichen Werkzeug für Linguistik und Sprachverarbeitung. Der regelbasierte Übersetzungsprozess von geschriebenem, italienischem Text zu LIS wurde in ein Service-orientiertes System überführt. Der Übersetzungsprozess besteht aus verschiedenen Modulen, einschließlich einem Parser, einem semantischen Interpreter, einem Generator und einem räumlichen Zuordnungs-Planer. Diese Übersetzungsprozedur wurde im Java Application Building Center (jABC) implementiert, welches ein Framework für das eXtrem Model Driven Design (XMDD) ist. Der XMDD-Ansatz konzentriert sich darauf die Softwareentwicklung näher zum konzeptionellen Design zu bringen, sodass die Funktionalität einer Softwarelösung von jemandem verstanden werden kann, der mit Programmierkonzepten unvertraut ist. Die Transformation richtet sich an die heterogene Herausforderung und verbessert die Wiederverwendbarkeit des Systems. Zur Verbesserung der E-Partizipation der funktionalen Analphabeten wurden zwei detaillierte Studien in der Republik Ruanda durchgeführt. In der ersten Studie wurde die traditionelle, textuelle Schnittstelle mit der virtuellen, charakterbasierten, interaktiven Schnittstelle verglichen. Diese Studie hat dazu beigetragen Barrieren der Benutzerfreundlichkeit zu identifizieren. Anwender evaluierten die Schnittstellen bezüglich drei grundlegender Bereiche der Benutzerfreundlichkeit: Effektivität, Effizienz und Zufriedenstellung bei der Problemlösung. In einer anderen Studie entwickelten wir vier verschiedene Schnittstellen, um die Benutzerfreundlichkeit und die Effekte der Online-Hilfe (konsequente Hilfe) für funktionale Analphabeten zu analysieren und verglichen verschiedene Hilfsmodi (einschließlich zusätzlicher Textinformationen, Audio-Unterstützung und mit Hilfe eines virtuellen Charakters) bezüglich der Verbesserung der Leistungsfähigkeit von teilweisen Analphabeten, um ihre Zielstellung zu erreichen. In unseren neu gestalteten Schnittstellen wurden Anweisungen automatisch in die Swahili Sprache übersetzt. Alle Schnittstellen wurden auf der Grundlage der Aufgabenbewältigung, des Zeitaufwands, der System Usability Scale (SUS) Rate und der Anzahl der Hilfegesuche bewertet. Die Ergebnisse zeigen, dass die Leistungsfähigkeit der teilweisen Analphabeten bei Nutzung der Online-Hilfe signifikant verbessert wurde. Diese Dissertation stellt somit einen neuen Entwicklungsansatz dar, bei welchem virtuelle Charaktere als zusätzliche Unterstützung genutzt werden, um Nutzer, die kaum lesen können oder sonstig eingeschränkt sind, zu unterstützen. Solche Komponenten erweitern die Anwendungsnutzbarkeit indem sie eine Vielzahl von Diensten wie das Übersetzen von Inhalten in eine Landessprache, das Bereitstellen von zusätzlichen akustisch, gesprochenen Informationen und die Durchführung einer automatischen Übersetzung von Text in Gebärdensprache bereitstellen. Offensichtlich gibt ist keine One Design-Lösung, die für alle zugrundeliegenden Domänen passt. Kontextsensitivität, Alphabetisierung und geistigen Fähigkeiten sind Schlüsselfaktoren, auf welche ich mich konzentriere. Die Ergebnisse unterstreichen, dass Computerschnittstellen auf einer exakten Definition der Zielgruppen, dem Zweck und den Zielen basieren müssen. KW - Mensch-Computer-Interaktion KW - assistive Technologien KW - HCI KW - user interfaces KW - sign language KW - online assistance KW - assistive technologies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70391 ER - TY - THES A1 - Tenenboim, Yehezkel T1 - Characterization of a Chlamydomonas protein involved in cell division and autophagy T1 - Charakterisierung eines an Zellteilung und Autophagie beteiligten Chlamydomonas-Proteins N2 - The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation. N2 - Die kontraktile Vakuole ist ein osmoregulatorisches Organell, das ausschließlich in Algen und Protisten vorkommt. Zusätzlich zu ihrer Rolle als Ausstoßer überflüßigen Wassers aus der Zelle heraus, stößt sie auch Ionen und andere Metaboliten aus, und trägt dabei zur metabolischen Homöostase der Zelle bei. Das Interesse an der kontraktilen Vakuole erstreckt sich über seine unmittelbare zelluläre Rolle hinaus. Die Funktion der kontraktilen Vakuole ist mit einigen grundsätzlichen zellulären Verfahren, wie Membrandynamik und Vesikelknospung und -fusion, verwandt; einige physiologische Verfahren in Tieren, zum Beispiel synaptische Neurotransmission und das Filtrieren des Blutes in den Nieren, sind mit der Funktion der Vakuole eng verwandt; und einige Pathogene—der Ursacher der Schlafkrankheit als Beispiel—besitzen kontraktile Vakuolen, die als Ziele von Medikamenten dienen könnten. Die grüne Alge Chlamydomonas reinhardtii verfügt über zwei Vakuolen. Sie sind die kleinsten bekannten in der Natur, und bleiben bisher verhältnismäßig unerforscht. Viele Gene, die in anderen Organismen als kontraktile-Vakuole-bezogen erwiesen wurden, haben Homologe in C. reinhardtii. Wir versuchten, diese Gene auszuschalten und den Einfluss auf die Vakuole zu beobachten. Die Ausschaltung eines unserer Gene, VMP1, verursachte starke, beachtliche Phänotype. Die Zellen zeigten gestörte Zytokinese und aberrante Zellformen. Die kontraktile Vakuole blieb jedoch verschont. Des Weiteren zeigten Mutantzellen einige Hinweise auf gestörte Autophagie. Einige wichtige Gene des Zellzyklus und der Autophagie waren unterexprimiert in Mutantzellen. Lipidomische Analyse zeigte mehrere bedeutsame Unterschiede zwischen Wildtyp und Mutant, die die Beobachtungen der gestörten Autophagie verstärkten. VMP1 ist ein singularisches Protein, mit Homologen in zähligen eukaryotischen Organismen (jedoch nicht in Pilzen), aber üblicherweise ohne Verwandte in den jeweiligen Genomen. Seit seiner Erstcharakterisierung 2002 wurde es mit etlichen zellulären Verfahren, wie Autophagie, programmiertem Zelltod, Sekretion, Zelladhäsion, und Biogenese der Organellen, assoziiert. Es wurde auch mit einigen menschlichen Krankheiten wie Diabetes, Pankreatitis, und einigen Arten von Krebs in Verbindung gebracht. Unsere Ergebnisse wiederholen einige Beobachtungen in anderen Organismen, zeigen dennoch zum ersten Mal eine Beteiligung von VMP1 an der Zellteilung. Die unterliegenden Mechanismen dieser Beteiligung in Chlamydomonas, sowie andere wichtige Aspekte, etwa die subzelluläre Lokalisierung von VMP1 und dessen Interaktionspartner, warten noch auf Aufklärung. KW - VMP1 KW - autophagy KW - cytokinesis KW - chlamydomonas Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70650 ER - TY - THES A1 - Schmidt, Lukas T1 - Aerosols and boundary layer structure over Arctic sea ice based on airborne lidar and dropsonde measurements T1 - Aerosol und Grenzschichtstruktur über arktischem Meereis anhand von Flugzeuggetragenen Lidar- und Dropsonden- Messungen N2 - The atmosphere over the Arctic Ocean is strongly influenced by the distribution of sea ice and open water. Leads in the sea ice produce strong convective fluxes of sensible and latent heat and release aerosol particles into the atmosphere. They increase the occurrence of clouds and modify the structure and characteristics of the atmospheric boundary layer (ABL) and thereby influence the Arctic climate. In the course of this study aircraft measurements were performed over the western Arctic Ocean as part of the campaign PAMARCMIP 2012 of the Alfred Wegener Institute for Polar and Marine Research (AWI). Backscatter from aerosols and clouds within the lower troposphere and the ABL were measured with the nadir pointing Airborne Mobile Aerosol Lidar (AMALi) and dropsondes were launched to obtain profiles of meteorological variables. Furthermore, in situ measurements of aerosol properties, meteorological variables and turbulence were part of the campaign. The measurements covered a broad range of atmospheric and sea ice conditions. In this thesis, properties of the ABL over Arctic sea ice with a focus on the influence of open leads are studied based on the data from the PAMARCMIP campaign. The height of the ABL is determined by different methods that are applied to dropsonde and AMALi backscatter profiles. ABL heights are compared for different flights representing different conditions of the atmosphere and of sea ice and open water influence. The different criteria for ABL height that are applied show large variation in terms of agreement among each other, depending on the characteristics of the ABL and its history. It is shown that ABL height determination from lidar backscatter by methods commonly used under mid-latitude conditions is applicable to the Arctic ABL only under certain conditions. Aerosol or clouds within the ABL are needed as a tracer for ABL height detection from backscatter. Hence an aerosol source close to the surface is necessary, that is typically found under the present influence of open water and therefore convective conditions. However it is not always possible to distinguish residual layers from the actual ABL. Stable boundary layers are generally difficult to detect. To illustrate the complexity of the Arctic ABL and processes therein, four case studies are analyzed each of which represents a snapshot of the interplay between atmosphere and underlying sea ice or water surface. Influences of leads and open water on the aerosol and clouds within the ABL are identified and discussed. Leads are observed to cause the formation of fog and cloud layers within the ABL by humidity emission. Furthermore they decrease the stability and increase the height of the ABL and consequently facilitate entrainment of air and aerosol layers from the free troposphere. N2 - Die Verteilung von Meereis und offenem Wasser hat einen starken Einfluss auf die Atmosphäre über dem arktischen Ozean. Eisrinnen (sog. Leads) verursachen konvektive Flüsse von latenter und sensibler Wärme und führen zum Eintrag von Aerosolpartikeln in die Atmosphäre. Dadurch führen sie zum vermehrten Auftreten von Wolken und modifizieren die Struktur und die Eigenschaften der atmosphärischen Grenzschicht (ABL), wodurch das arktische Klima beeinflusst wird. Im Rahmen der Messkampagne PAMARCMIP 2012 des Alfred-Wegener-Instituts (AWI) wurden als Teil dieser Arbeit über dem westlichen arktischen Ozean Flugzeugmessungen durchgeführt. Mithilfe des nach unten gerichteten Airborne Mobile Aerosol Lidar (AMALi) wurde die Rückstreuung von Aerosolen und Wolken in der unteren Troposphäre und ABL gemessen. Dropsonden wurden verwendet, um Profile meteorologischer Größen zu erhalten. Zudem wurden in situ Messungen von Aerosoleigenschaften, meteorologischen Variablen und der Turbulenz durchgeführt. In dieser Arbeit werden die Eigenschaften der ABL über arktischem Meereis basierend auf den Daten der PAMARCMIP Kampagne untersucht. Dabei liegt der Fokus auf dem Einfluss offener Leads auf die ABL. Aus den gewonnenen Dropsondendaten und AMALi Rückstreuprofilen wird die Höhe der ABL mithilfe verschiedener Methoden bestimmt. Die für verschiedene Messflüge und somit unterschiedliche atmosphärische Bedingungen sowie Meereisverteilungen berechneten ABL Höhen werden miteinander verglichen, und somit der Einfluss von offenem Wasser auf die ABL untersucht. Die verschiedenen Methoden zur Bestimmung der ABL Höhe führen zu unterschiedlichen Ergebnissen, je nach Eigenschaften der ABL und ihrer Geschichte. Es wird gezeigt, dass die Methoden für die ABL Höhen-Bestimmung aus der Lidar Rückstreuung, die gewöhnlich für die mittleren Breiten verwendet werden, nur bedingt für arktische Bedingungen geeignet ist. Um die ABL Höhe aus der Rückstreuung ableiten zu können, müssen Aerosole oder Wolken in der Grenzschicht als Tracer vorhanden sein. Dazu ist eine Aerosolquelle nahe der Oberfläche notwendig, welche typischerweise unter dem Einfluss von offenem Wasser und konvektiven Bedingungen vorliegt. Dennoch ist es nicht immer möglich, die aktuelle Grenzschicht von residualen Schichten zu unterscheiden. Stabile Grenzschichten sind im Allgemeinen schwer zu detektieren. Um die Komplexität der arktischen Grenzschicht und die beteiligten Prozesse zu veranschaulichen, werden vier Fallstudien detailliert analysiert, welche jeweils eine Momentaufnahme des Zusammenspiels von Atmosphäre und Meereis oder Wasseroberfläche darstellen. Der Einfluss von Leads und offenem Wasser auf Aerosol und Wolken in der ABL werden identifiziert und diskutiert. Die Bildung von Wolken- und Nebelschichten, verursacht durch den Feuchteeintrag über offenen Leads, wird beobachtet. Zudem verringern leads die Stabilität der ABL, führen zu einer Zunahme ihrer Höhe und begünstigen dadurch Entrainment von Luft und Aerosolschichten aus der freien Troposphäre. KW - polar KW - atmosphere KW - AMALi KW - Polar 5 KW - lead KW - polar KW - Atmosphäre KW - AMALi KW - Polar 5 KW - Eisrinne Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75076 ER - TY - THES A1 - Meissner, Sven T1 - Implications of Microcystin Production in Microcystis aeruginosa PCC 7806 T1 - Effekte der Produktion von Microcystin in Microcystis aeruginosa PCC 7806 N2 - Cyanobacteria produce about 40 percent of the world’s primary biomass, but also a variety of often toxic peptides such as microcystin. Mass developments, so called blooms, can pose a real threat to the drinking water supply in many parts of the world. This study aimed at characterizing the biological function of microcystin production in one of the most common bloom-forming cyanobacterium Microcystis aeruginosa. In a first attempt, the effect of elevated light intensity on microcystin production and its binding to cellular proteins was studied. Therefore, conventional microcystin quantification techniques were combined with protein-biochemical methods. RubisCO, the key enzyme for primary carbon fixation was a major microcystin interaction partner. High light exposition strongly stimulated microcystin-protein interactions. Up to 60 percent of the total cellular microcystin was detected bound to proteins, i.e. inaccessible for standard quantification procedures. Underestimation of total microcystin contents when neglecting the protein fraction was also demonstrated in field samples. Finally, an immuno-fluorescence based method was developed to identify microcystin producing cyanobacteria in mixed populations. The high light induced microcystin interaction with proteins suggested an impact of the secondary metabolite on the primary metabolism of Microcystis by e.g. modulating the activity of enzymes. For addressing that question, a comprehensive GC/MS-based approach was conducted to compare the accumulation of metabolites in the wild-type of Microcystis aeruginosa PCC 7806 and the microcystin deficient ΔmcyB mutant. From all 501 detected non-redundant metabolites 85 (17 percent) accumulated significantly different in either of both genotypes upon high light exposition. Accumulation of compatible solutes in the ΔmcyB mutant suggests a role of microcystin in fine-tuning the metabolic flow to prevent stress related to excess light, high oxygen concentration and carbon limitation. Co-analysis of the widely used model cyanobacterium Synechocystis PCC 6803 revealed profound metabolic differences between species of cyanobacteria. Whereas Microcystis channeled more resources towards carbohydrate synthesis, Synechocystis invested more in amino acids. These findings were supported by electron microscopy of high light treated cells and the quantification of storage compounds. While Microcystis accumulated mainly glycogen to about 8.5 percent of its fresh weight within three hours, Synechocystis produced higher amounts of cyanophycin. The results showed that the characterization of species-specific metabolic features should gain more attention with regard to the biotechnological use of cyanobacteria. N2 - Cyanobakterien produzieren etwa 40 Prozent der primären Biomasse auf der Welt aber auch giftige Peptide wie das leberschädigende Microcystin. Massenvorkommen, so genannte Blaualgenblüten, gefährden vielerorts regelmäßig die Trinkwasserversorgung. Diese Arbeit hatte zum Ziel, den Einfluss der Microcystinproduktion auf physiologische Abläufe in dem weit verbreiteten blütenbildenden Cyanobakterium Microcystis aeruginosa zu charakterisieren. Zum einen, wurde hierfür der Einfluss der Beleuchtungsintensität auf die Produktion von Microcystin und dessen Bindung an zelluläre Proteine ermittelt. Hierzu wurden etablierte Quantifizierungstechniken mit biochemischen Methoden kombiniert. RubisCO, das Schlüsselenzym zur primären Kohlenstofffixierung, war ein Hauptinteraktionspartner von Microcystin. Hohe Beleuchtungsintensität erhöhte die Menge von an Proteine gebundenem Microcystin. Bis zu 60 Prozent des gesamten zellulären Microcystins lag an Proteine gebunden vor, d.h. es wurde durch Standardquantifizierungsmethoden nicht erfasst. Die Notwendigkeit, zur Quantifizierung des gesamten Microcystins die Proteinfraktion mit einzubeziehen, wurde auch in Freilandproben demonstriert. Die Entwicklung einer immunofluoreszenzbasierten Methode erlaubte die Unterscheidung von toxischen und nichttoxischen Microcystis-Kolonien in Freilandproben. Die starklichtinduzierte Interaktion von Microcystin mit Proteinen deutete auf einen möglichen Einfluss des Sekundärmetabolits auf den Primärstoffwechsel von Microcystis hin. Um dieser Frage nachzugehen, wurde ein umfassender GC/MS-basierter Versuch durchgeführt, um die Akkumulation von Metaboliten im Microcystin produzierenden Stamm Microcystis aeruginosa PCC 7806 und dessen microcystinfreier ΔmcyB-mutierten Variante vergleichen zu können. Es zeigte sich, dass Microcystin einen Einfluss auf die Akkumulation von 85 (17 Prozent) aller 501 detektierten Metaboliten unter erhöhter Beleuchtungsstärke hatte. Besonders die vermehrte Synthese osmotisch aktiver Substanzen in der ΔmcyB Mutante, verstanden als generelle Reaktion auf allgemeinen Stress, deutete auf eine Beteiligung von Microcystin in der metabolischen Justierung von Microcystis hin. Die Parallelanalyse des Modellstamms Synechocystis PCC 6803 offenbarte grundsätzliche metabolische Unterschiede zwischen verschiedenen Cyanobakterienspezies. Demnach produzierte Microcystis vor allem Kohlehydrate und Synechocystis eher Aminosäuren. Die GC/MS-basierten Ergebnisse wurden durch elektronmikroskopische Aufnahmen und die Quantifizierung von Speichermetaboliten gestützt. Innerhalb drei Stunden bewirkte Starklicht die Akkumulation von Glykogen in Microcystis auf ca. 8.5 Prozent des Frischgewichts, wohingegen Synechocystis mehr Cyanophycin produzierte. Die Ergebnisse zeigten, dass im Hinblick auf die biotechnologische Nutzung von Cyanobakterien, die Charakterisierung speziesspezifischer metabolischer Eigenschaften mehr Beachtung finden sollte. KW - microcystin KW - Microcystin KW - cyanobacteria KW - Cyanobakterien Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75199 ER - TY - THES A1 - Schmitt, Clemens Nikolaus Zeno T1 - The role of protein metal complexes in the mechanics of Mytilus californianus byssal threads T1 - Der Einfluss von Protein-Metall-Komplexen auf die mechanischen Eigenschaften der Byssusfäden von Mytilus californianus N2 - Protein-metal coordination complexes are well known as active centers in enzymatic catalysis, and to contribute to signal transduction, gas transport, and to hormone function. Additionally, they are now known to contribute as load-bearing cross-links to the mechanical properties of several biological materials, including the jaws of Nereis worms and the byssal threads of marine mussels. The primary aim of this thesis work is to better understand the role of protein-metal cross-links in the mechanical properties of biological materials, using the mussel byssus as a model system. Specifically, the focus is on histidine-metal cross-links as sacrificial bonds in the fibrous core of the byssal thread (Chapter 4) and L-3,4-dihydroxyphenylalanine (DOPA)-metal bonds in the protective thread cuticle (Chapter 5). Byssal threads are protein fibers, which mussels use to attach to various substrates at the seashore. These relatively stiff fibers have the ability to extend up to about 100 % strain, dissipating large amounts of mechanical energy from crashing waves, for example. Remarkably, following damage from cyclic loading, initial mechanical properties are subsequently recovered by a material-intrinsic self-healing capability. Histidine residues coordinated to transition metal ions in the proteins comprising the fibrous thread core have been suggested as reversible sacrificial bonds that contribute to self-healing; however, this remains to be substantiated in situ. In the first part of this thesis, the role of metal coordination bonds in the thread core was investigated using several spectroscopic methods. In particular, X-ray absorption spectroscopy (XAS) was applied to probe the coordination environment of zinc in Mytilus californianus threads at various stages during stretching and subsequent healing. Analysis of the extended X-ray absorption fine structure (EXAFS) suggests that tensile deformation of threads is correlated with the rupture of Zn-coordination bonds and that self-healing is connected with the reorganization of Zn-coordination bond topologies rather than the mere reformation of Zn-coordination bonds. These findings have interesting implications for the design of self-healing metallopolymers. The byssus cuticle is a protective coating surrounding the fibrous thread core that is both as hard as an epoxy and extensible up to 100 % strain before cracking. It was shown previously that cuticle stiffness and hardness largely depend on the presence of Fe-DOPA coordination bonds. However, the byssus is known to concentrate a large variety of metals from seawater, some of which are also capable of binding DOPA (e.g. V). Therefore, the question arises whether natural variation of metal composition can affect the mechanical performance of the byssal thread cuticle. To investigate this hypothesis, nanoindentation and confocal Raman spectroscopy were applied to the cuticle of native threads, threads with metals removed (EDTA treated), and threads in which the metal ions in the native tissue were replaced by either Fe or V. Interestingly, replacement of metal ions with either Fe or V leads to the full recovery of native mechanical properties with no statistical difference between each other or the native properties. This likely indicates that a fixed number of metal coordination sites are maintained within the byssal thread cuticle – possibly achieved during thread formation – which may provide an evolutionarily relevant mechanism for maintaining reliable mechanics in an unpredictable environment. While the dynamic exchange of bonds plays a vital role in the mechanical behavior and self-healing in the thread core by allowing them to act as reversible sacrificial bonds, the compatibility of DOPA with other metals allows an inherent adaptability of the thread cuticle to changing circumstances. The requirements to both of these materials can be met by the dynamic nature of the protein-metal cross-links, whereas covalent cross-linking would fail to provide the adaptability of the cuticle and the self-healing of the core. In summary, these studies of the thread core and the thread cuticle serve to underline the important and dynamic roles of protein-metal coordination in the mechanical function of load-bearing protein fibers, such as the mussel byssus. N2 - Protein-Metall Bindungen sind vor allem durch ihre Rolle in physiologischen Prozessen bekannt. Vor kurzem jedoch wurde eine völlig andere Funktion dieser chemischen Bindungen, als lasttragendes Vernetzungselement in Kieferzangen mariner Ringelwürmer der Gattung Nereis und Byssusfäden mariner Muscheln der Gattung Mytilus (Miesmuscheln) entdeckt. Ziel dieser Dissertation ist es, am Beispiel von M. californianus Byssusfäden, ein besseres Verständnis des Einflusses von Protein-Metall Komplexen auf die mechanischen Eigenschaften biologischer Materialien zu erlangen. Byssusfäden sind Proteinfasern, welche Miesmuscheln zur sicheren Befestigung verwenden. Diese relativ steifen Fäden können bis zu 100 % gedehnt zu werden, ohne zu brechen. Bei sofortiger Wiederbelastung zeigt sich jedoch eine Verschlechterung der mechanischen Eigenschaften des Materials. Erstaunlicherweise können sich die mechanischen Eigenschaften der Fäden hiervon wieder erholen. Es wird angenommen, dass im Faserkern der Byssusfäden die Aminosäure Histidin Bindungen mit Metallionen eingeht, welche als reversible Opferbindungen fungieren können und so einen Selbstheilungsprozess ermöglichen. In dieser Arbeit wurde der Beitrag von Protein-Zink Bindungen zur Mechanik der Byssusfäden mittels Röntgenabsorptionsspektroskopie (XAS), untersucht. Die ermittelten Daten legen nahe, dass Zn-Aminosäure Bindungen unter Dehnung der Byssusfäden brechen. Des Weiteren scheint der Selbstheilungsprozess nicht auf der bloßen Wiederherstellung dieser Bindungen zu beruhen, sondern viel mehr auf der Regenerierung der anfänglichen Bindungsstruktur und -verteilung. Diese Erkenntnisse stellen interessante Konzepte für die Entwicklung von selbstheilenden Metallopolymeren bereit. Die relativ harte Hülle der Byssusfäden schützt den Faserkern vor Abrieb. Laut Literatur basiert ihre Härte und Steifigkeit hauptsächlich auf der Quervernetzung durch Fe-DOPA (eine modifizierte Aminosäure) Bindungen. Jedoch können verschiedene Metalle aus dem Meerwasser in Byssusfäden aufgenommen werden und auch Bindungen mit DOPA bilden. Daher stellt sich die Frage, nach dem Zusammenhang zwischen mechanischen Eigenschaften und der Metallzusammensetzung der Byssushülle. Um dieser Frage nachzugehen, wurden die Metallionen aus der Hülle natürlicher Byssusfäden entfernt, und durch entweder Fe oder V ersetzt. Anschließend wurden die mechanischen Eigenschaften der Hüllen der behandelten und unbehandelten Byssusfäden mittels Nanoindentierung bestimmt. Interessanterweise besteht kein Unterschied der mechanischen Eigenschaften der natürlichen und modifizierten Hüllen der Byssusfäden, was dafür spricht, dass in der Hülle der Byssusfäden eine feste Anzahl an Protein-Metall Quervernetzungspunkten vorhanden ist, die möglicherweise durch den speziellen Produktionsprozess der Fäden festgelegt wird. Dies könnte eine evolutionäre Anpassung des Byssus darstellen, um eine verlässliche Verankerung des Organismus in verschiedenen Umgebungen zu gewährleisten. Während die Dynamik der Protein-Metall Bindungen ihnen eine Rolle als chemische Opferbindung im selbstheilenden Faserkern erlaubt, ermöglicht sie die Funktion der Hülle unter Verwendung verschiedener Metalle. Andere nicht-kovalente Wechselwirkungen haben sicherlich eine ähnliche Dynamik, und kovalente Bindungen sind stabiler, aber nur Protein-Metall Bindungen erlauben eine stabile und dynamische Quervernetzung, ohne die weder das Anpassungsvermögen der Hülle, noch das Selbstheilungsvermögen des Faserkerns möglich wären. Die Untersuchungen der Hülle und des Faserkerns der Byssusfäden verdeutlichen die Wichtigkeit der Protein-Metall Bindungen und ihrer Dynamik für die mechanische Funktion lasttragender Proteinfasern, wie dem Byssus der Miesmuscheln. KW - biomaterials KW - self-healing materials KW - protein-metal interaction KW - Biomaterialien KW - selbstheilende Materialien KW - Protein-Metall-Wechselwirkung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74216 ER - TY - THES A1 - Feld, Christian T1 - Crustal structure of the Eratosthenes Seamount, Cyprus and S. Turkey from an amphibian wide-angle seismic profile T1 - Die Krustenstruktur von dem Eratosthenes Seeberg, Zypern und der Süd-Türkei anhand eines amphibischen seismischen Weitwinkel Profils N2 - In March 2010, the project CoCoCo (incipient COntinent-COntinent COllision) recorded a 650 km long amphibian N-S wide-angle seismic profile, extending from the Eratosthenes Seamount (ESM) across Cyprus and southern Turkey to the Anatolian plateau. The aim of the project is to reveal the impact of the transition from subduction to continent-continent collision of the African plate with the Cyprus-Anatolian plate. A visual quality check, frequency analysis and filtering were applied to the seismic data and reveal a good data quality. Subsequent first break picking, finite-differences ray tracing and inversion of the offshore wide-angle data leads to a first-arrival tomographic model. This model reveals (1) P-wave velocities lower than 6.5 km/s in the crust, (2) a variable crustal thickness of about 28 - 37 km and (3) an upper crustal reflection at 5 km depth beneath the ESM. Two land shots on Turkey, also recorded on Cyprus, airgun shots south of Cyprus and geological and previous seismic investigations provide the information to derive a layered velocity model beneath the Anatolian plateau and for the ophiolite complex on Cyprus. The analysis of the reflections provides evidence for a north-dipping plate subducting beneath Cyprus. The main features of this layered velocity model are (1) an upper and lower crust with large lateral changes of the velocity structure and thickness, (2) a Moho depth of about 38 - 45 km beneath the Anatolian plateau, (3) a shallow north-dipping subducting plate below Cyprus with an increasing dip and (4) a typical ophiolite sequence on Cyprus with a total thickness of about 12 km. The offshore-onshore seismic data complete and improve the information about the velocity structure beneath Cyprus and the deeper part of the offshore tomographic model. Thus, the wide-angle seismic data provide detailed insights into the 2-D geometry and velocity structures of the uplifted and overriding Cyprus-Anatolian plate. Subsequent gravity modelling confirms and extends the crustal P-wave velocity model. The deeper part of the subducting plate is constrained by the gravity data and has a dip angle of ~ 28°. Finally, an integrated analysis of the geophysical and geological information allows a comprehensive interpretation of the crustal structure related to the collision process. N2 - Im März 2010 wurden im Rahmen des "CoCoCo"-Projektes ein 650km langes amphibisches, seismisches Weitwinkel Profil aufgenommen. Dieses erstreckte sich von dem Eratosthenes Seeberg (ESM) über Zypern und der Süd-Türkei bis zum anatolischen Plateau. Das Hauptziel des Projektes ist es, den Einfluss zu untersuchen, der von dem Übergang eines Subduktion Prozesses hin zu einer Kontinent-Kontinent Kollision der afrikanischen Platte mit der zyprisch-anatolischen Platte hervorgerufen wird. Die seismischen Daten wurden einer visuelle Qualitätsüberprüfung, Frequenz-Analyse und Filterung unterzogen und zeigten eine gute Qualität. Das darauf folgende Picken der Ersteinstätze, eine Finite-Differenzen Raytracing und eine Inversion der offshore Weitwinkel Daten, führte zu einem Laufzeit Tomographie Model. Das Modell zeigt (1) P-Wellengeschwindigkeiten kleiner als 6.5 km/s in der Kruste, (2) eine variable Krustenmächtigkeit von 28 - 37 km und (3) eine obere Krustenreflektion in 5 km Tiefe unter dem ESM. Zwei Landschüsse in der Türkei, ebenfalls aufgenommen auf Zypern, Luftkanonen-Schüsse südlich von Zypern und vorausgegangene geologische und seismische Untersuchungen lieferten die Grundlage, um ein geschichtetes Geschwindigkeitsmodell für das anatolische Plateau und für den Ophiolith-Komplex auf Zypern abzuleiten. Die Analyse der Reflexionen liefert den Beweis für eine nach Norden einfallende Platte welche unter Zypern subduziert. Die Hauptkennzeichen dieses geschichteten Geschwindigkeitsmodelles sind (1) eine obere und untere Kruste mit starken lateral Änderungen in Geschwindigkeit und Mächtigkeit, (2) eine Mohotiefe in 38 - 45 km unter dem anatolischen Plateau, (3) eine flach nach Norden einfallende Platte unter Zypern mit ansteigendem Einfallwinkel und (4) eine typische Ophiolith Sequenz auf Zypern mit einer Gesamtmächtigkeit von 12 km. Die seismischen offshore / onshore Daten komplettieren und verbessern die bisherigen Kenntnisse über die Geschwindigkeitsstruktur unter Zypern und des tieferen Bereiches der offshore Tomographie. Damit liefert die Weitwinkel Seismik detaillierte Einblicke in die 2-D Geometrie und die Geschwindigkeitsstrukturen der angehobenen und überlagerten zyprisch-anatolischen Platte. Die darauf folgende Gravimetrie Modellierung bestätigt und erweitert das P-Wellen Krusten-Geschwindigkeits Modell. Der tiefere Teil der subduzierten Platte, welche einen Einfallswinkel von ~ 28° hat, wurde durch die Gravimetrie Daten belegt. Letztlich erlaubt eine ganzheitliche Analyse von geophysikalischen und geologischen Informationen die umfassende Interpretation der Krustenstruktur welche in Verbindung mit dem Kollisions Prozess steht. KW - incipient continent-continent collision KW - crustal structure of the Eratosthenes Seamount KW - controlled source wide angle seismic KW - crustal structure of south central Turkey KW - Cyprus arc KW - aktive Weitewinkel-Seismik KW - Krustenstruktur des Eratosthenes Seeberges KW - beginnende Kontinent-Kontinent Kollision KW - Krustenstruktur der Süd-Türkei KW - Zypernbogen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73479 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Heise, Arvid T1 - Data cleansing and integration operators for a parallel data analytics platform T1 - Datenreinigungs- und Integrationsoperatoren für ein paralles Datenanalyseframework N2 - The data quality of real-world datasets need to be constantly monitored and maintained to allow organizations and individuals to reliably use their data. Especially, data integration projects suffer from poor initial data quality and as a consequence consume more effort and money. Commercial products and research prototypes for data cleansing and integration help users to improve the quality of individual and combined datasets. They can be divided into either standalone systems or database management system (DBMS) extensions. On the one hand, standalone systems do not interact well with DBMS and require time-consuming data imports and exports. On the other hand, DBMS extensions are often limited by the underlying system and do not cover the full set of data cleansing and integration tasks. We overcome both limitations by implementing a concise set of five data cleansing and integration operators on the parallel data analytics platform Stratosphere. We define the semantics of the operators, present their parallel implementation, and devise optimization techniques for individual operators and combinations thereof. Users specify declarative queries in our query language METEOR with our new operators to improve the data quality of individual datasets or integrate them to larger datasets. By integrating the data cleansing operators into the higher level language layer of Stratosphere, users can easily combine cleansing operators with operators from other domains, such as information extraction, to complex data flows. Through a generic description of the operators, the Stratosphere optimizer reorders operators even from different domains to find better query plans. As a case study, we reimplemented a part of the large Open Government Data integration project GovWILD with our new operators and show that our queries run significantly faster than the original GovWILD queries, which rely on relational operators. Evaluation reveals that our operators exhibit good scalability on up to 100 cores, so that even larger inputs can be efficiently processed by scaling out to more machines. Finally, our scripts are considerably shorter than the original GovWILD scripts, which results in better maintainability of the scripts. N2 - Die Datenqualität von Realweltdaten muss ständig überwacht und gewartet werden, damit Organisationen und Individuen ihre Daten verlässlich nutzen können. Besonders Datenintegrationsprojekte leiden unter schlechter Datenqualität in den Quelldaten und benötigen somit mehr Zeit und Geld. Kommerzielle Produkte und Forschungsprototypen helfen Nutzern die Qualität in einzelnen und kombinierten Datensätzen zu verbessern. Die Systeme können in selbständige Systeme und Erweiterungen von bestehenden Datenbankmanagementsystemen (DBMS) unterteilt werden. Auf der einen Seite interagieren selbständige Systeme nicht gut mit DBMS und brauchen zeitaufwändigen Datenimport und -export. Auf der anderen Seite sind die DBMS Erweiterungen häufig durch das unterliegende System limitiert und unterstützen nicht die gesamte Bandbreite an Datenreinigungs- und -integrationsaufgaben. Wir überwinden beide Limitationen, indem wir eine Menge von häufig benötigten Datenreinigungs- und Datenintegrationsoperatoren direkt in der parallelen Datenanalyseplattform Stratosphere implementieren. Wir definieren die Semantik der Operatoren, präsentieren deren parallele Implementierung und entwickeln Optimierungstechniken für die einzelnen und mehrere Operatoren. Nutzer können deklarative Anfragen in unserer Anfragesprache METEOR mit unseren neuen Operatoren formulieren, um die Datenqualität von einzelnen Datensätzen zu erhöhen, oder um sie zu größeren Datensätzen zu integrieren. Durch die Integration der Operatoren in die Hochsprachenschicht von Stratosphere können Nutzer Datenreinigungsoperatoren einfach mit Operatoren aus anderen Domänen wie Informationsextraktion zu komplexen Datenflüssen kombinieren. Da Stratosphere Operatoren durch generische Beschreibungen in den Optimierer integriert werden, ist es für den Optimierer sogar möglich Operatoren unterschiedlicher Domänen zu vertauschen, um besseren Anfrageplänen zu ermitteln. Für eine Fallstudie haben wir Teile des großen Datenintegrationsprojektes GovWILD auf Stratosphere mit den neuen Operatoren nachimplementiert und zeigen, dass unsere Anfragen signifikant schneller laufen als die originalen GovWILD Anfragen, die sich auf relationale Operatoren verlassen. Die Evaluation zeigt, dass unsere Operatoren gut auf bis zu 100 Kernen skalieren, sodass sogar größere Datensätze effizient verarbeitet werden können, indem die Anfragen auf mehr Maschinen ausgeführt werden. Schließlich sind unsere Skripte erheblich kürzer als die originalen GovWILD Skripte, was in besserer Wartbarkeit unserer Skripte resultiert. KW - data KW - cleansing KW - holistic KW - parallel KW - map reduce KW - Datenreinigung KW - Datenintegration KW - ganzheitlich KW - parallel KW - map reduce Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77100 ER - TY - THES A1 - Pussak, Marcin T1 - Seismic characterization of geothermal reservoirs by application of the common-reflection-surface stack method and attribute analysis T1 - Seismische Charakterisierung von geothermischen Reservoiren mittels “Common-Reflection-Surface” Stapelungs-Methode und Attribut-Analysen N2 - An important contribution of geosciences to the renewable energy production portfolio is the exploration and utilization of geothermal resources. For the development of a geothermal project at great depths a detailed geological and geophysical exploration program is required in the first phase. With the help of active seismic methods high-resolution images of the geothermal reservoir can be delivered. This allows potential transport routes for fluids to be identified as well as regions with high potential of heat extraction to be mapped, which indicates favorable conditions for geothermal exploitation. The presented work investigates the extent to which an improved characterization of geothermal reservoirs can be achieved with the new methods of seismic data processing. The summations of traces (stacking) is a crucial step in the processing of seismic reflection data. The common-reflection-surface (CRS) stacking method can be applied as an alternative for the conventional normal moveout (NMO) or the dip moveout (DMO) stack. The advantages of the CRS stack beside an automatic determination of stacking operator parameters include an adequate imaging of arbitrarily curved geological boundaries, and a significant increase in signal-to-noise (S/N) ratio by stacking far more traces than used in a conventional stack. A major innovation I have shown in this work is that the quality of signal attributes that characterize the seismic images can be significantly improved by this modified type of stacking in particular. Imporoved attribute analysis facilitates the interpretation of seismic images and plays a significant role in the characterization of reservoirs. Variations of lithological and petro-physical properties are reflected by fluctuations of specific signal attributes (eg. frequency or amplitude characteristics). Its further interpretation can provide quality assessment of the geothermal reservoir with respect to the capacity of fluids within a hydrological system that can be extracted and utilized. The proposed methodological approach is demonstrated on the basis on two case studies. In the first example, I analyzed a series of 2D seismic profile sections through the Alberta sedimentary basin on the eastern edge of the Canadian Rocky Mountains. In the second application, a 3D seismic volume is characterized in the surroundings of a geothermal borehole, located in the central part of the Polish basin. Both sites were investigated with the modified and improved stacking attribute analyses. The results provide recommendations for the planning of future geothermal plants in both study areas. N2 - Ein wichtiger Beitrag der Geowissenschaften zur Bereitstellung erneuerbarer Energien besteht in der Nutzbarmachung von geothermischen Ressourcen. Für die Entwicklung von geothermischen Anlagen in großen Tiefen ist in der ersten Phase eine detaillierte geologisch-geophysikalische Erkundung erforderlich. Hierbei werden Informationen über das Temperaturfeld, zur Litho-Stratigraphie und Strukturgeologie, Geomechanik, Hydrogeologie sowie petrophysikalische Eigenschaften im Reservoir-Maßstab benötigt. Mit Hilfe aktiver seismischer Methoden können hochauflösende Abbilder des geothermischen Reservoirs geliefert werden. Dadurch können potentielle Transportwege für Fluide sowie Regionen mit hohem Wärmeabsorptionspotential identifiziert und kartiert werden. Die vorgelegte Arbeit untersucht, inwieweit mit neuen Methoden der seismischen Datenbearbeitung eine verbesserte Charakterisierung von geothermischen Reservoiren erreicht werden kann. Die Stapelung ist ein entscheidender Schritt bei der Bearbeitung von seismischen Felddaten. Die sogenannte “common-reflection-surface” Stapelung ist eine Erweiterung des klassischen Stapelungs-Konzepts. Durch ihre Anwendung können detailliertere und zuverlässigere Abbilder des Untergrundes gewonnen werden. Als wichtige Neuerung habe ich in der Arbeit aufgezeigt, dass durch diese modifizierte Art der Stapelung insbesondere die Qualität von Signalattribut-Darstellungen der seismischen Abbilder signifikant verbessert wird. Signalattribute sind ein wichtiges Werkzeug bei der Untersuchung von Reservoiren. Variationen der lithologischen und petrophysikalischen Eigenschaften spiegeln sich in Variationen in bestimmten Signalattributen (z.B. Frequenzeigenschaften, Amplitudeneigenschaften) wieder. Daraus kann auf die Qualität des geothermischen Reservoirs, z.B. hinsichtlich der Aufnahmefähigkeit von Fluiden zur Wärmeabsorption in Kreislaufsystemen, geschlossen werden. Das vorgeschlagenen methodische Konzept wird an Hand von 2 Fallstudien demonstriert. Im ersten Beispiel analysierte ich eine Reihe von 2D seismischen Profilschnitten durch das Alberta-Sedimentbecken am Ostrand der kanadischen Rocky Mountains. Bei der zweiten Anwendung wird ein 3D seismisches Volumen im Umfeld einer Geothermie-Bohrung im Zentralteil des Polnischen Sedimentbeckens mit Hilfe der modifizierten Stapelung und verbesserten Attribut-Analysen charakterisiert. Die Ergebnisse ermöglichen Empfehlungen für die Planung zukünftiger Geothermie-Anlagen in beiden Untersuchungsgebieten. KW - seismic KW - geothermischer Reservoire KW - seismische Stapelungs-Methode KW - Attribut-Analysen KW - Verarbeitung seismischer Daten KW - Common-Reflection-Surface Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77565 ER - TY - THES A1 - Conrad, Claudia T1 - Open cluster groups and complexes T1 - Gruppen und Komplexe offener Sternhaufen N2 - It is generally agreed upon that stars typically form in open clusters and stellar associations, but little is known about the structure of the open cluster system. Do open clusters and stellar associations form isolated or do they prefer to form in groups and complexes? Open cluster groups and complexes could verify star forming regions to be larger than expected, which would explain the chemical homogeneity over large areas in the Galactic disk. They would also define an additional level in the hierarchy of star formation and could be used as tracers for the scales of fragmentation in giant molecular clouds? Furthermore, open cluster groups and complexes could affect Galactic dynamics and should be considered in investigations and simulations on the dynamical processes, such as radial migration, disc heating, differential rotation, kinematic resonances, and spiral structure. In the past decade there were a few studies on open cluster pairs (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) and on open cluster groups and complexes (Piskunov et al. 2006). The former only considered spatial proximity for the identification of the pairs, while the latter also required tangential velocities to be similar for the members. In this work I used the full set of 6D phase-space information to draw a more detailed picture on these structures. For this purpose I utilised the most homogeneous cluster catalogue available, namely the Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), which contains parameters for 650 open clusters and compact associations, as well as for their uniformly selected members. Additional radial velocity (RV) and metallicity ([M/H]) information on the members were obtained from the RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) for 110 and 81 clusters, respectively. The RAVE sample was cleaned considering quality parameters and flags provided by RAVE (Matijevič et al. 2012; Kordopatis et al. 2013). To ensure that only real members were included for the mean values, also the cluster membership, as provided by Kharchenko et al. (2005a,b), was considered for the stars cross-matched in RAVE. 6D phase-space information could be derived for 432 out of the 650 COCD objects and I used an adaption of the Friends-of-Friends algorithm, as used in cosmology, to identify potential groupings. The vast majority of the 19 identified groupings were pairs, but I also found four groups of 4-5 members and one complex with 15 members. For the verification of the identified structures, I compared the results to a randomly selected subsample of the catalogue for the Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), which became available recently, and was used as reference sample. Furthermore, I implemented Monte-Carlo simulations with randomised samples created from two distinguished input distributions for the spatial and velocity parameters. On the one hand, assuming a uniform distribution in the Galactic disc and, on the other hand, assuming the COCD data distributions to be representative for the whole open cluster population. The results suggested that the majority of identified pairs are rather by chance alignments, but the groups and the complex seemed to be genuine. A comparison of my results to the pairs, groups and complexes proposed in the literature yielded a partial overlap, which was most likely because of selection effects and different parameters considered. This is another verification for the existence of such structures. The characteristics of the found groupings favour that members of an open cluster grouping originate from a common giant molecular cloud and formed in a single, but possibly sequential, star formation event. Moreover, the fact that the young open cluster population showed smaller spatial separations between nearest neighbours than the old cluster population indicated that the lifetime of open cluster groupings is most likely comparable to that of the Galactic open cluster population itself. Still even among the old open clusters I could identify groupings, which suggested that the detected structure could be in some cases more long lived as one might think. In this thesis I could only present a pilot study on structures in the Galactic open cluster population, since the data sample used was highly incomplete. For further investigations a far more complete sample would be required. One step in this direction would be to use data from large current surveys, like SDSS, RAVE, Gaia-ESO and VVV, as well as including results from studies on individual clusters. Later the sample can be completed by data from upcoming missions, like Gaia and 4MOST. Future studies using this more complete open cluster sample will reveal the effect of open cluster groupings on star formation theory and their significance for the kinematics, dynamics and evolution of the Milky Way, and thereby of spiral galaxies. N2 - Es ist weithin anerkannt, dass Sterne typischerweise in offenen Sternenhaufen und Sternassoziationen entstehen, dennoch ist wenig über Strukturen in diesem System der offenen Sternhaufen bekannt. Entstehen offenen Sternhaufen und Sternassoziationen isoliert oder entstehen sie bevorzugt in Gruppen und Komplexen? Gruppen und Komplexe von offenen Sternhaufen könnten bestätigen, dass Sternentstehungsregionen größer sind als erwartet, was die Homogenität der chemischen Zusammensetzung über weite Areale in der galaktischen Scheibe erklären würde. Sie würden auch eine weitere Stufe in der Hierarchie der Sternentstehung definieren und könnten als Indikatoren für die Skalen der Fragmentierung in Riesenmolekülwolken dienen. Des Weiteren könnten Gruppen und Komplexe von offenen Sternhaufen die Dynamik unserer Galaxis beeinflussen und sollten in Untersuchungen und Simulationen von dynamischen Prozessen, wie radiale Migration, kinematische Aufheizung der Scheibe, differentielle Rotation, kinematische Resonanzen und der Spiralstruktur, miteinbezogen werden. In den vergangenen Jahrzehnten gab es einigen Studien zu Paaren von offenen Sternhaufen (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) sowie zu Gruppen und Komplexen von offenen Sternhaufen (Piskunov et al. 2006). Erstere betrachteten ausschließlich räumliche Nähe für die Identifizierung der Paare, während letztere auch ähnliche tangentiale Geschwindigkeiten für die Mitglieder verlangten. In dieser Arbeit nutzte ich den kompletten Satz an 6D-Phasenrauminformationen, um ein vollständigeres Bild dieser Strukturen zu erstellen. Aus diesem Grund habe ich den homogensten Sternhaufenkatalog verwendet, der zu dieser Zeit verfügbar war, nämlich den Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), welcher Parameter für 650 offene Sternhaufen und Sternassoziationen, sowie deren einheitlich ausgewählte Mitglieder, enthält. Weitere Radialgeschwindigkeits- (RV) und Metallizitätsinformationen ([M/H]) für die Sternhaufenmitglieder wurden mit Hilfe des RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) für 110 beziehungsweise 81 Haufen bestimmt. Der RAVE-Datensatz wurde mit Hilfe von Qualitätsparametern aus RAVE (Matijevič et al. 2012; Kordopatis et al. 2013) gereinigt. Um sicherzustellen, dass nur echte Mitglieder für die Mittelwertbestimmung betrachtet wurden, wurde auch die Haufenmitgliedschaft, wie von Kharchenko et al. (2005a,b) bereitgestellt, für die in RAVE identifizierten Sterne miteinbezogen. 6D-Phasenrauminformationen konnten für 432 der 650 COCD Objekte bestimmt werden und ich habe eine angepasste Variante des Friends-of-Friends Algorithmus genutzt, der in der Kosmologie verwendet wird, um potenzielle Gruppierungen zu identifizieren. Der überwiegende Teil der 19 identifizierten Gruppierungen waren Paare, ich habe aber auch vier Gruppen mit 4-5 Mitgliedern und einen Komplex mit 15 Mitgliedern gefunden. Für die Bestätigung der identifizierten Strukturen, verglich ich die Ergebnisse mit einem zufällig ausgewählten Datensatz aus dem Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), der kürzlich erst zur Verfügung gestellt wurde und hier als Vergleichsdatensatz verwendet wurde. Des Weiteren, habe ich Monte-Carlo Simulationen mit zufälligen Datensätzen implementiert, die anhand von zwei unterschiedlichen Varianten für die Ausgangsverteilungen der räumlichen und Geschwindigkeitsparameter generiert wurden. Zum Einen unter der Annahme einer gleichmäßigen Verteilung in der galaktischen Scheibe und zum Anderen unter der Annahme, dass die Datenverteilungen im COCD repräsentativ sind für die gesamte Population der offenen Sternhaufen. Die Ergebnisse deuteten darauf hin, dass die Mehrheit der identifizierten Paare eher zufällige Anordnungen sind, aber die Gruppen und der Komplex schienen echt zu sein. Ein Vergleich meiner Ergebnisse mit den in der Literatur vorgeschlagenen Paaren, Gruppen und Komplexen ergab eine teilweise Überschneidung, die höchstwahrscheinlich durch Auswahleffekte und die Verwendung unterschiedlicher Parameter bedingt war. Dies ist eine weitere Bestätigung für die Existenz solcher Strukturen. Die Eigenschaften der gefundenen Gruppierungen bevorzugen, dass die Mitglieder einer Gruppierung von offenen Sternhaufen aus einer gemeinsamen Riesenmolekülwolke stammen und in einem Sternentstehungsereignis geformt wurden, das möglicherweise auch sequenziell ablief. Außerdem zeigte die junge Population der offenen Sternhaufen kleinere räumliche Abstände zwischen den nächsten Nachbarn als die alte Haufenpopulation, was darauf hindeutet, dass die Lebenszeit von Gruppierungen von offenen Sternhaufen vergleichbar ist mit der für die Population galaktischer offener Sternhaufen selbst. Dennoch wurden auch unter den alten offenen Sternhaufen Gruppierungen identifiziert, was andeutete, dass die gefundenen Strukturen doch in einigen Fällen langlebiger ist als man denken könnte. In dieser Doktorarbeit konnte ich nur eine Pilotstudie zu Strukturen in der Population der galaktischen offenen Sternhaufen präsentieren, da der verwendete Datensatz höchst unvollständig war. Für zukünftige Untersuchungen wäre ein deutlich vollständigerer Datensatz notwendig. Ein Schritt in diese Richtung wäre die Verwendung von Daten aus großen momentan verfügbaren Beobachtungskampagnen, wie dem SDSS, RAVE, Gaia-ESO und dem VVV, sowie das miteinbeziehen der Ergebnisse von Studien an einzelnen offenen Sternhaufen. Später könnte dieser Datensatz durch die Verwendung von Daten aus kommenden Missionen, wie Gaia und 4MOST, komplettiert werden. Zukünftige Studien mit einem vollständigeren Datensatz werden den Einfluss von Gruppierungen von offenen Sternhaufen für die Sternentstehungstheorie und ihre Bedeutung für die Kinematik, Dynamik und Entwicklung der Milchstraße, und damit auch für andere Spiralgalaxien, enträtseln. KW - open clusters and stellar associations KW - stellar populations KW - offene Sternhaufen und stellare Assoziationen KW - Sternpopulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77605 ER - TY - THES A1 - Jüppner, Jessica T1 - Characterization of metabolomic dynamics in synchronized Chlamydomonas reinhardtii cell cultures and the impact of TOR inhibition on cell cycle, proliferation and growth T1 - Charakterisierung der metabolischen Dynamik in synchronisierten Chlamydomonas reinhardtii Zellkulturen und der Einfluss der TOR-Inhibition auf Zellzyklus, Proliferation und Wachstum N2 - The adaptation of cell growth and proliferation to environmental changes is essential for the surviving of biological systems. The evolutionary conserved Ser/Thr protein kinase “Target of Rapamycin” (TOR) has emerged as a major signaling node that integrates the sensing of numerous growth signals to the coordinated regulation of cellular metabolism and growth. Although the TOR signaling pathway has been widely studied in heterotrophic organisms, the research on TOR in photosynthetic eukaryotes has been hampered by the reported land plant resistance to rapamycin. Thus, the finding that Chlamydomonas reinhardtii is sensitive to rapamycin, establish this unicellular green alga as a useful model system to investigate TOR signaling in photosynthetic eukaryotes. The observation that rapamycin does not fully arrest Chlamydomonas growth, which is different from observations made in other organisms, prompted us to investigate the regulatory function of TOR in Chlamydomonas in context of the cell cycle. Therefore, a growth system that allowed synchronously growth under widely unperturbed cultivation in a fermenter system was set up and the synchronized cells were characterized in detail. In a highly resolved kinetic study, the synchronized cells were analyzed for their changes in cytological parameters as cell number and size distribution and their starch content. Furthermore, we applied mass spectrometric analysis for profiling of primary and lipid metabolism. This system was then used to analyze the response dynamics of the Chlamydomonas metabolome and lipidome to TOR-inhibition by rapamycin The results show that TOR inhibition reduces cell growth, delays cell division and daughter cell release and results in a 50% reduced cell number at the end of the cell cycle. Consistent with the growth phenotype we observed strong changes in carbon and nitrogen partitioning in the direction of rapid conversion into carbon and nitrogen storage through an accumulation of starch, triacylglycerol and arginine. Interestingly, it seems that the conversion of carbon into triacylglycerol occurred faster than into starch after TOR inhibition, which may indicate a more dominant role of TOR in the regulation of TAG biosynthesis than in the regulation of starch. This study clearly shows, for the first time, a complex picture of metabolic and lipidomic dynamically changes during the cell cycle of Chlamydomonas reinhardtii and furthermore reveals a complex regulation and adjustment of metabolite pools and lipid composition in response to TOR inhibition. N2 - Die Anpassung der Wachstumsrate an Umweltveränderungen ist essentiell für das Überleben biologischer Systeme. Mit der Identifikation der evolutionär konservierten Serin/Threonin Kinase “Target of Rapamycin” (TOR) war ein zentraler Regulator gefunden, der in Abhängigkeit einer Vielzahl von Wachstumsfaktoren den zellulären Metabolismus und das Wachstum reguliert. Während zum heutigen Zeitpunkt schon relativ gute Kenntnisse über die Funktionen und Signalwege dieser Kinase in heterotrophen Organismen gewonnen werden konnten, wurden die Untersuchungen des TOR-Signalweges in photoautotrophen Organismen durch deren Resistenz gegenüber dem TOR-spezifischen Inhibitor Rapamycin für lange Zeit erschwert. Daher bietet die Entdeckung, dass die einzelligen Grünalge Chlamydomonas reinhardtii eine natürliche Sensitivität gegenüber Rapamycin aufweist, eine gute Grundlage zur Erforschung des TOR-Signalweges in photosynthetisch aktiven Eukaryoten. Aufgrund der Beobachtung, dass das Wachstum von Chlamydomonas nicht vollständig durch Rapamycin inhibiert werden konnte, was im Gegensatz zu Beobachtungen in anderen Organismen steht, entschieden wir uns für eine detailliertere Analyse des Einflusses von TOR auf den Zellzyklus. Dazu wurde ein System etabliert das eine Synchronisation der Zellen unter weitestgehend ungestörten Bedingungen in einem Fermenter-system erlaubte. Dieses System wurde dann für eine detaillierte Charakterisierung der synchronisierten Zellen genutzt. Mittels einer hochaufgelösten Zeitreihe wurden Veränderungen zytologischer Parameter (Zellzahl und Zellgrößenverteilung) und des Stärkegehalts analysiert. Zusätzlich wurden massenspektrometrische Verfahren zur Analyse des Primär- und Lipidmetabolismus verwendet. Dieses System wurde des Weiteren dazu genutzt dynamische Veränderungen im Metabolom und Lipidom von Chlamydomonas nach Inhibition der TOR Kinase durch Rapamycin zu untersuchen Die Ergebnisse der TOR-Inhibition zeigen ein vermindertes Wachstum, eine Verzögerung in der Zellteilung und der Entlassung der Tochterzellen und resultieren in einer um 50% verringerten Zellzahl am Ende des Zellzyklus. Des Weiteren konnte eine Akkumulation von Kohlenstoff– und Stickstoff-Reserven in Form von Stärke und Triacylglyceriden, sowie Arginin beobachtet werden. Dabei ist vor allem interessant, dass die der Einbau von Kohlenstoff in Triacylglyceride offenbar schneller erfolgt als der in Stärke, was auf eine dominantere Rolle von TOR in der Regulation der Triacylglycerid-Biosynthese gegenüber der Stärkesynthese hindeutet. Diese Studie zeigt zum ersten Mal eine komplexe Analyse der dynamischen Veränderungen im Primär- und Lipidmetabolismus im Verlauf des Zellzyklus von Chlamydomonas und zeigt weiterhin die komplexe Regulation und Adjustierung des Metabolit-Pools und der Lipidzusammensetzung als Antwort auf die Inhibition von TOR. KW - chlamydomonas reinhardtii KW - metabolites KW - Metaboliten KW - lipids KW - Lipide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76923 ER - TY - THES A1 - Scheinemann, Hendrik Alexander T1 - Hygienisierung von Rindergülle und Klärschlämmen mittels milchsaurer Fermentation T1 - Hygienisation of sewage sludge or cattle manure by lactic acid fermentation N2 - Tierische und menschliche Fäkalien aus Landwirtschaft und Haushalten enthalten zahlreiche obligat und opportunistisch pathogene Mikroorganismen, deren Konzentration u. a. je nach Gesundheitszustand der betrachteten Gruppe schwankt. Neben den Krankheitserregern enthalten Fäkalien aber auch essentielle Pflanzennährstoffe (276) und dienen seit Jahrtausenden (63) als Dünger für Feldfrüchte. Mit der unbedarften Verwendung von pathogenbelastetem Fäkaldünger steigt jedoch auch das Risiko einer Infektion von Mensch und Tier. Diese Gefahr erhöht sich mit der globalen Vernetzung der Landwirtschaft, z. B. durch den Import von kontaminierten Futter- bzw. Lebensmitteln (29). Die vorliegende Arbeit stellt die milchsaure Fermentation von Rindergülle und Klärschlamm als alternative Hygienisierungsmethode gegenüber der Pasteurisation in Biogasanlagen bzw. gebräuchlichen Kompostierung vor. Dabei wird ein Abfall der Gram-negativen Bakterienflora sowie der Enterokokken, Schimmel- und Hefepilze unter die Nachweisgrenze von 3 log10KbE/g beobachtet, gleichzeitig steigt die Konzentration der Lactobacillaceae um das Tausendfache. Darüber hinaus wird gezeigt, dass pathogene Bakterien wie Staphylococcus aureus, Salmonella spp., Listeria monocytogenes, EHEC O:157 und vegetative Clostridum perfringens-Zellen innerhalb von 3 Tagen inaktiviert werden. Die Inaktivierung von ECBO-Viren und Spulwurmeiern erfolgt innerhalb von 7 bzw. 56 Tagen. Zur Aufklärung der Ursache der beobachteten Hygienisierung wurde das fermentierte Material auf flüchtige Fettsäuren sowie pH-Wertänderungen untersucht. Es konnte festgestellt werden, dass die gemessenen Werte nicht die alleinige Ursache für das Absterben der Erreger sind, vielmehr wird eine zusätzliche bakterizide Wirkung durch eine mutmaßliche Bildung von Bakteriozinen in Betracht gezogen. Die parasitizide Wirkung wird auf die physikalischen Bedingungen der Fermentation zurückgeführt. Die methodischen Grundlagen basieren auf Analysen mittels zahlreicher klassisch-kultureller Verfahren, wie z. B. der Lebendkeimzahlbestimmung. Darüber hinaus findet die MALDI-TOF-Massenspektrometrie und die klassische PCR in Kombination mit der Gradienten-Gelelektrophorese Anwendung, um kultivierbare Bakterienfloren zu beschreiben bzw. nicht kultivierbare Bakterienfloren stichprobenartig zu erfassen. Neben den Aspekten der Hygienisierung wird zudem die Eignung der Methode für die landwirtschaftliche Nutzung berücksichtigt. Dies findet sich insbesondere in der Komposition des zu fermentierenden Materials wieder, welches für die verstärkte Humusakkumulation im Ackerboden optimiert wurde. Darüber hinaus wird die Masseverlustbilanz während der milchsauren Fermentation mit denen der Kompostierung sowie der Verarbeitung in der Biogasanlage verglichen und als positiv bewertet, da sie mit insgesamt 2,45 % sehr deutlich unter den bisherigen Alternativen liegt (73, 138, 458). Weniger Verluste an organischem Material während der Hygienisierung führen zu einer größeren verwendbaren Düngermenge, die auf Grund ihres organischen Ursprungs zu einer Verstärkung des Humusanteiles im Ackerboden beitragen kann (56, 132). N2 - Manure from animal farms and sewage sludge contain pathogens and opportunistic organisms in various concentrations depending on the health of the herds and human sources. Other than for the presence of pathogens, these waste substances are excellent nutrient sources and constitute a preferred organic fertilizer. However, because of the pathogens, the risks of infection of animals or humans increase with the indiscriminate use of manure, especially liquid manure or sludge, for agriculture. This potential problem can increase with the global connectedness of animal herds fed imported feed grown on fields fertilized with local manures. This paper describes a simple, easy-to-use, low-tech hygienization method which conserves nutrients and does not require large investments in infrastructure. The proposed method uses the microbiotic shift during mesophilic fermentation of cow manure or sewage sludge during which gram-negative bacteria, enterococci and yeasts were inactivated below the detection limit of 3 log10 cfu/g while lactobacilli increased up to a thousand fold. Pathogens like Salmonella, Listeria monocytogenes, Staphylococcus aureus, E. coli EHEC O:157 and vegetative Clostridium perfringens were inactivated within 3 days of fermentation. In addition, ECBO-viruses and eggs of Ascaris suum were inactivated within 7 and 56 days, respectively. Compared to the mass lost through composting (15–57%), the loss of mass during fermentation (< 2.45%) is very low and provides strong economic and ecological benefits for this process. This method might be an acceptable hygienization method for developed as well as undeveloped countries, and could play a key role in public and animal health while safely closing the nutrient cycle by reducing the necessity of using energy-inefficient inorganic fertilizer for crop production. Scheinemann HA, Dittmar K, Stöckel FS, Müller H, Krüger ME (2015) Hygienisation and Nutrient Conservation of Sewage Sludge or Cattle Manure by Lactic Acid Fermentation. PLoS ONE 10(3): e0118230. doi:10.1371/journal.pone.0118230 KW - pathogene Bakterien KW - organischer Dünger KW - terra preta KW - Salmonella KW - Schwarzerde KW - Stoffkreislauf KW - öffentliche Gesundheit KW - terra preta KW - salmonella KW - black earth KW - fertiliser KW - pathogen bacteria KW - compost Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77949 ER - TY - THES A1 - Schmidl, Ricarda T1 - Empirical essays on job search behavior, active labor market policies, and propensity score balancing methods T1 - Empirische Studien zum Arbeitssuchverhalten, aktiver Arbeitsmarktpolitik und Propensity Score Gewichtungsmethoden N2 - In Chapter 1 of the dissertation, the role of social networks is analyzed as an important determinant in the search behavior of the unemployed. Based on the hypothesis that the unemployed generate information on vacancies through their social network, search theory predicts that individuals with large social networks should experience an increased productivity of informal search, and reduce their search in formal channels. Due to the higher productivity of search, unemployed with a larger network are also expected to have a higher reservation wage than unemployed with a small network. The model-theoretic predictions are tested and confirmed empirically. It is found that the search behavior of unemployed is significantly affected by the presence of social contacts, with larger networks implying a stronger substitution away from formal search channels towards informal channels. The substitution is particularly pronounced for passive formal search methods, i.e., search methods that generate rather non-specific types of job offer information at low relative cost. We also find small but significant positive effects of an increase of the network size on the reservation wage. These results have important implications on the analysis of the job search monitoring or counseling measures that are usually targeted at formal search only. Chapter 2 of the dissertation addresses the labor market effects of vacancy information during the early stages of unemployment. The outcomes considered are the speed of exit from unemployment, the effects on the quality of employment and the short-and medium-term effects on active labor market program (ALMP) participation. It is found that vacancy information significantly increases the speed of entry into employment; at the same time the probability to participate in ALMP is significantly reduced. Whereas the long-term reduction in the ALMP arises in consequence of the earlier exit from unemployment, we also observe a short-run decrease for some labor market groups which suggest that caseworker use high and low intensity activation measures interchangeably which is clearly questionable from an efficiency point of view. For unemployed who find a job through vacancy information we observe a small negative effect on the weekly number of hours worked. In Chapter 3, the long-term effects of participation in ALMP are assessed for unemployed youth under 25 years of age. Complementary to the analysis in Chapter 2, the effects of participation in time- and cost-intensive measures of active labor market policies are examined. In particular we study the effects of job creation schemes, wage subsidies, short-and long-term training measures and measures to promote the participation in vocational training. The outcome variables of interest are the probability to be in regular employment, and participation in further education during the 60 months following program entry. The analysis shows that all programs, except job creation schemes have positive and long-term effects on the employment probability of youth. In the short-run only short-term training measures generate positive effects, as long-term training programs and wage subsidies exhibit significant locking-in'' effects. Measures to promote vocational training are found to increase the probability of attending education and training significantly, whereas all other programs have either no or a negative effect on training participation. Effect heterogeneity with respect to the pre-treatment level education shows that young people with higher pre-treatment educational levels benefit more from participation most programs. However, for longer-term wage subsidies we also find strong positive effects for young people with low initial education levels. The relative benefit of training measures is higher in West than in East Germany. In the evaluation studies of Chapters 2 and 3 semi-parametric balancing methods of Propensity Score Matching (PSM) and Inverse Probability Weighting (IPW) are used to eliminate the effects of counfounding factors that influence both the treatment participation as well as the outcome variable of interest, and to establish a causal relation between program participation and outcome differences. While PSM and IPW are intuitive and methodologically attractive as they do not require parametric assumptions, the practical implementation may become quite challenging due to their sensitivity to various data features. Given the importance of these methods in the evaluation literature, and the vast number of recent methodological contributions in this field, Chapter 4 aims to reduce the knowledge gap between the methodological and applied literature by summarizing new findings of the empirical and statistical literature and practical guidelines for future applied research. In contrast to previous publications this study does not only focus on the estimation of causal effects, but stresses that the balancing challenge can and should be discussed independent of question of causal identification of treatment effects on most empirical applications. Following a brief outline of the practical implementation steps required for PSM and IPW, these steps are presented in detail chronologically, outlining practical advice for each step. Subsequently, the topics of effect estimation, inference, sensitivity analysis and the combination with parametric estimation methods are discussed. Finally, new extensions of the methodology and avenues for future research are presented. N2 - In Kapitel 1 der Dissertation wird die Rolle von sozialen Netzwerken als Determinante im Suchverhalten von Arbeitslosen analysiert. Basierend auf der Hypothese, dass Arbeitslose durch ihr soziales Netzwerk Informationen über Stellenangebote generieren, sollten Personen mit großen sozialen Netzwerken eine erhöhte Produktivität ihrer informellen Suche erfahren, und ihre Suche in formellen Kanälen reduzieren. Durch die höhere Produktivität der Suche sollte für diese Personen zudem der Reservationslohn steigen. Die modelltheoretischen Vorhersagen werden empirisch getestet, wobei die Netzwerkinformationen durch die Anzahl guter Freunde, sowie Kontakthäufigkeit zu früheren Kollegen approximiert wird. Die Ergebnisse zeigen, dass das Suchverhalten der Arbeitslosen durch das Vorhandensein sozialer Kontakte signifikant beeinflusst wird. Insbesondere sinkt mit der Netzwerkgröße formelle Arbeitssuche - die Substitution ist besonders ausgeprägt für passive formelle Suchmethoden, d.h. Informationsquellen die eher unspezifische Arten von Jobangeboten bei niedrigen relativen Kosten erzeugen. Im Einklang mit den Vorhersagen des theoretischen Modells finden sich auch deutlich positive Auswirkungen einer Erhöhung der Netzwerkgröße auf den Reservationslohn. Kapitel 2 befasst sich mit den Arbeitsmarkteffekten von Vermittlungsangeboten (VI) in der frühzeitigen Aktivierungsphase von Arbeitslosen. Die Nutzung von VI könnte dabei eine „doppelte Dividende“ versprechen. Zum einen reduziert die frühe Aktivierung die Dauer der Arbeitslosigkeit, und somit auch die Notwendigkeit späterer Teilnahme in Arbeitsmarktprogrammen (ALMP). Zum anderen ist die Aktivierung durch Information mit geringeren locking-in‘‘ Effekten verbunden als die Teilnahme in ALMP. Ziel der Analyse ist es, die Effekte von frühen VI auf die Eingliederungsgeschwindigkeit, sowie die Teilnahmewahrscheinlichkeit in ALMP zu messen. Zudem werden mögliche Effekte auf die Qualität der Beschäftigung untersucht. Die Ergebnisse zeigen, dass VI die Beschäftigungswahrscheinlichkeit signifikant erhöhen, und dass gleichzeitig die Wahrscheinlichkeit in ALMP teilzunehmen signifikant reduziert wird. Für die meisten betrachteten Subgruppen ergibt sich die langfristige Reduktion der ALMP Teilnahme als Konsequenz der schnelleren Eingliederung. Für einzelne Arbeitsmarktgruppen ergibt sich zudem eine frühe und temporare Reduktion, was darauf hinweist, dass Maßnahmen mit hohen und geringen „locking-in“ Effekten aus Sicht der Sachbearbeiter austauschbar sind, was aus Effizienzgesichtspunkten fragwürdig ist. Es wird ein geringer negativer Effekt auf die wöchentliche Stundenanzahl in der ersten abhängigen Beschäftigung nach Arbeitslosigkeit beobachtet. In Kapitel 3 werden die Langzeiteffekte von ALMP für arbeitslose Jugendliche unter 25 Jahren ermittelt. Die untersuchten ALMP sind ABM-Maßnahmen, Lohnsubventionen, kurz-und langfristige Maßnahmen der beruflichen Bildung sowie Maßnahmen zur Förderung der Teilnahme an Berufsausbildung. Ab Eintritt in die Maßnahme werden Teilnehmer und Nicht-Teilnehmer für einen Zeitraum von sechs Jahren beobachtet. Als Zielvariable wird die Wahrscheinlichkeit regulärer Beschäftigung, sowie die Teilnahme in Ausbildung untersucht. Die Ergebnisse zeigen, dass alle Programme, bis auf ABM, positive und langfristige Effekte auf die Beschäftigungswahrscheinlichkeit von Jugendlichen haben. Kurzfristig finden wir jedoch nur für kurze Trainingsmaßnahmen positive Effekte, da lange Trainingsmaßnahmen und Lohnzuschüsse mit signifikanten locking-in‘‘ Effekten verbunden sind. Maßnahmen zur Förderung der Berufsausbildung erhöhen die Wahrscheinlichkeit der Teilnahme an einer Ausbildung, während alle anderen Programme keinen oder einen negativen Effekt auf die Ausbildungsteilnahme haben. Jugendliche mit höherem Ausbildungsniveau profitieren stärker von der Programmteilnahme. Jedoch zeigen sich für längerfristige Lohnsubventionen ebenfalls starke positive Effekte für Jugendliche mit geringer Vorbildung. Der relative Nutzen von Trainingsmaßnahmen ist höher in West- als in Ostdeutschland. In den Evaluationsstudien der Kapitel 2 und 3 werden die semi-parametrischen Gewichtungsverfahren Propensity Score Matching (PSM) und Inverse Probability Weighting (IPW) verwendet, um den Einfluss verzerrender Faktoren, die sowohl die Maßnahmenteilnahme als auch die Zielvariablen beeinflussen zu beseitigen, und kausale Effekte der Programmteilahme zu ermitteln. Während PSM and IPW intuitiv und methodisch sehr attraktiv sind, stellt die Implementierung der Methoden in der Praxis jedoch oft eine große Herausforderung dar. Das Ziel von Kapitel 4 ist es daher, praktische Hinweise zur Implementierung dieser Methoden zu geben. Zu diesem Zweck werden neue Erkenntnisse der empirischen und statistischen Literatur zusammengefasst und praxisbezogene Richtlinien für die angewandte Forschung abgeleitet. Basierend auf einer theoretischen Motivation und einer Skizzierung der praktischen Implementierungsschritte von PSM und IPW werden diese Schritte chronologisch dargestellt, wobei auch auf praxisrelevante Erkenntnisse aus der methodischen Forschung eingegangen wird. Im Anschluss werden die Themen Effektschätzung, Inferenz, Sensitivitätsanalyse und die Kombination von IPW und PSM mit anderen statistischen Methoden diskutiert. Abschließend werden neue Erweiterungen der Methodik aufgeführt. KW - empirische Arbeitsmarktforschung KW - Arbeitssuchverhalten KW - Propensity Score Matching KW - Inverse Probability Weighting KW - Aktive Arbeitsmarktpolitik KW - empirical labor market studies KW - job search behavior KW - propensity score matching KW - inverse probability weighting KW - active labor market policies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71145 ER - TY - THES A1 - Tietz, Marcel T1 - Europäisches Verwaltungsmanagement : Vergleich von Hauptstädten neuer und alter Mitgliedsstaaten der EU am Beispiel der Bürgerdienste T1 - European administrative management : comparison of capital cities of new and old member states of the EU using the example of citizen services N2 - Im Rahmen der Dissertation wird die Anwendung und Wirkung von Kernelementen des New Public Management (NPM) am Beispiel der Bürgerdienste der sechs europäischen Hauptstädte Berlin, Brüssel, Kopenhagen, Madrid, Prag und Warschau analysiert. Hierbei steht der Vergleich von Hauptstädten der MOE-Staaten mit Hauptstädten alter EU-Mitgliedsstaaten im Vordergrund. Es wird die folgende Forschungshypothese untersucht: Die Verwaltungen in den Hauptstädten der östlichen Mitgliedsstaaten der EU haben in Folge der grundsätzlichen gesellschaftlichen und politischen Umbrüche in den 1990er Jahren bedeutend mehr Kernelemente des NPM beim Neuaufbau ihrer öffentlichen Verwaltungen eingeführt. Durch den folgerichtigen Aufbau kundenorientierter und moderner Verwaltungen sowie der strikten Anwendung der Kernelemente des New Public Management arbeiten die Bürgerdienste in den Hauptstädten östlicher EU-Mitgliedsstaaten effizienter und wirkungsvoller als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten. Zur Überprüfung der Forschungshypothese werden die Vergleichsstädte zunächst den entsprechenden Rechts- und Verwaltungstraditionen (kontinentaleuropäisch deutsch, napoleonisch und skandinavisch) zugeordnet und bezüglich ihrer Ausgangslage zum Aufbau einer modernen Verwaltung (Westeuropäische Verwaltung, Wiedervereinigungsverwaltung und Transformations-verwaltung) kategorisiert. Im Anschluss werden die institutionellen Voraussetzungen hinterfragt, was die deskriptive Darstellung der Stadt- und Verwaltungsgeschichte sowie die Untersuchung von organisatorischen Strukturen der Bürgerdienste, die Anwendung der NPM-Instrumente als auch die Innen- und Außenperspektive des NPM umfasst. Es wird festgestellt, ob und in welcher Form die Bürgerdienste der Vergleichsstädte die Kernelemente des NPM anwenden. Im Anschluss werden die Vergleichsstädte bezüglich der Anwendung der Kernelemente miteinander verglichen, wobei der Fokus auf dem persönlichen Vertriebsweg und der Kundenorientierung liegt. Der folgende Teil der Dissertation befasst sich mit dem Output der Bürgerdienste, der auf operative Resultate untersucht und verglichen wird. Hierbei stellt sich insbesondere die Frage nach den Leistungsmengen und der Produktivität des Outputs. Es werden aber auch die Ergebnisse von Verwaltungsprozessen untersucht, insbesondere in Bezug auf die Kundenorientierung. Hierfür wird ein Effizienzvergleich der Bürgerdienste in den Vergleichsstädten anhand einer relativen Effizienzmessung und der Free Disposal Hull (FDH)-Methode nach Bouckaert durchgeführt. Es ist eine Konzentration auf populäre Dienstleistungen aus dem Portfolio der Bürgerdienste notwendig. Daher werden die vergleichbaren Dienstleistungen Melde-, Personalausweis-, Führerschein- und Reisepass-angelegenheiten unter Einbeziehung des Vollzeitäquivalents zur Berechnung der Effizienz der Bürgerdienste herangezogen. Hierfür werden Daten aus den Jahren 2009 bis 2011 genutzt, die teilweise aus verwaltungsinternen Datenbanken stammen. Anschließend wird der Versuch unternommen, den Outcome in die Effizienzanalyse der Bürgerdienste einfließen zu lassen. In diesem Zusammenhang wird die Anwendbarkeit von verschiedenen erweiterten Best-Practice-Verfahren und auch eine Erweiterung der relativen Effizienzmessung und der FDH-Methode geprüft. Als Gesamtfazit der Dissertation kann festgehalten werden, dass die Bürgerdienste in den untersuchten Hauptstädten der MOE-Staaten nicht mehr Kernelemente des NPM anwenden, als die Hauptstädte der westlichen Mitgliedsstaaten der EU. Im Gegenteil wendet Prag deutlich weniger NPM-Instrumente als andere Vergleichsstädte an, wohingegen Warschau zwar viele NPM-Instrumente anwendet, jedoch immer von einer westeuropäischen Vergleichsstadt übertroffen wird. Auch die Hypothese, dass die Bürgerdienste in den Hauptstädten der MOE-Staaten effizienter arbeiten als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten wurde durch die Dissertation entkräftet. Das Gegenteil ist der Fall, da Prag und Warschau im Rahmen des Effizienzvergleichs lediglich durchschnittliche oder schlechte Performances aufweisen. Die aufgestellte Hypothese ist durch die Forschungsergebnisse widerlegt, lediglich das gute Abschneiden der Vergleichsstadt Warschau bei der Anwendungsanalyse kann einen Teil der These im gewissen Umfang bestätigen. N2 - In the context of the thesis, the application and impact of core elements of the New Public Management (NPM) is analysed using the example of the Citizen Services of six European capital cities Berlin, Brussels, Copenhagen, Madrid, Prague and Warsaw. In this connection the comparison of the capital cities in the CEE countries with capital cities in the old EU Member States is foregrounded. The following research hypothesis is examined: In consequence of the fundamental social and political upheavals in the 1990s the administrations in the capital cities of the eastern EU Member States have introduced significantly more core elements of NPM during the reorganisation of their public administrations. Due to the consequent erection of customer-oriented and modern administrations and the strict application of core elements of the New Public Management, the Citizen Services in the capital cities of eastern EU Member States work more efficient and effective than comparable Citizen Services in the capital cities of western EU Member States. To survey the research hypothesis, the capital cities are initially assigned to the relevant legal and administrative traditions (Continental European German, Napoleonic and Scandinavian) and afterwards categorised with respect to their initial position to build up a modern administration (western European administration, reunion administration and transformation administration). Thereafter institutional requirements are questioned, which includes a descriptive presentation of urban and administrative history and the analyses of organisational structures of the Citizen Services, the application of NPM instruments as well as the internal and external perspectives of the NPM. It is concluded, whether and in what form the Citizen Services of the capital cities utilise the core elements of NPM. Following the capital cities are compared regarding the application of core elements, whereat the focus is on the personal channel of distribution and customer orientation. The following part of the thesis deals with the output of Citizen Services, which is examined and compared to operational results. This raises in particular the question of the activity quantity and the efficiency of the output. But there are also examines of the results of administrative processes, particularly in reference to customer orientation. Thus a comparison of efficiency of Citizen Services in the capital cities is performed, which is based on a relative measurement of efficiency and the Free Disposal Hull Method (FDH) according to Bouckaert. A focus on popular services from the portfolio of the Citizen Services is needed, wherefore the efficiency of the Citizen Services is calculated with the comparable services identity card, driving license and passport involving the full-time equivalent. Therefor data from the years 2009 to 2011 are used, which originate from internal administrative databases. Following an attempt is made to include the outcome in the analysis of efficiency of the Citizen Services. In this context, the applicability of various advanced best practice methods and an extension of the relative measurement of efficiency and the FDH method is verified. As an overall conclusion of the thesis can be stated that the Citizen Services in the investigated capital cities of the CEE countries do not apply more core elements of the NPM compared to the capital cities of the western EU Member States. In contrast Prague applies significantly less NPM instruments compared to other capital cities, whereas Warsaw applies many NPM instruments but is always exceeded by a western European capital city. The hypothesis that the Citizen Services in the capital cities of the CEE countries work more efficiently than comparable Citizen Services in the capital cities of the western EU Member States is also ruled by the thesis. The opposite is the case as Prague and Warsaw show only an average or poor performance in the context of the comparison of efficiency. The established hypothesis is disproved by the research results, only the good performance of the capital city of Warsaw in the analysis of application is able to confirm a part of the thesis to a certain extent. KW - New Public Management KW - Bürgerdienste KW - Effizienzanalyse KW - Kommunale Verwaltung KW - new public management KW - citizen services KW - analysis of efficiency KW - local government Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72171 ER - TY - THES A1 - Lorey, Johannes T1 - What's in a query : analyzing, predicting, and managing linked data access T1 - Was ist in einer Anfrage : Analyse, Vorhersage und Verwaltung von Zugriffen auf Linked Data N2 - The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information. N2 - Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird. KW - Vernetzte Daten KW - SPARQL KW - RDF KW - Anfragepaare KW - Informationsvorhaltung KW - linked data KW - SPARQL KW - RDF KW - query matching KW - prefetching Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72312 ER - TY - THES A1 - Sarrar, Lea T1 - Kognitive Funktionen bei adoleszenten Patienten mit Anorexia nervosa und unipolaren Affektiven Störungen T1 - Cognitive functions in adolescent patients with anorexia nervosa and unipolar affective disorders N2 - Anorexia nervosa und unipolare Affektive Störungen stellen häufige und schwerwiegende kinder- und jugendpsychiatrische Störungsbilder dar, deren Pathogenese bislang nicht vollständig entschlüsselt ist. Verschiedene Studien zeigen bei erwachsenen Patienten gravierende Auffälligkeiten in den kognitiven Funktionen. Dahingegen scheinen bei adoleszenten Patienten lediglich leichtere Einschränkungen in den kognitiven Funktionen vorzuliegen. Die Prävalenz der Anorexia nervosa und unipolaren Affektiven Störung ist mit Beginn der Adoleszenz deutlich erhöht. Es ist anzunehmen, dass kognitive Dysfunktionen, die sich bereits in diesem Alter abzeichnen, den weiteren Krankheitsverlauf bis in das Erwachsenenalter, die Behandlungsergebnisse und die Prognose maßgeblich beeinträchtigen könnten. Zudem ist von einem höheren Chronifizierungsrisiko auszugehen. In der vorliegenden Arbeit wurden daher kognitive Funktionen bei adoleszenten Patientinnen mit Anorexia nervosa sowie Patienten mit unipolaren Affektiven Störungen untersucht. Die Überprüfung der kognitiven Funktionen bei Patientinnen mit Anorexia nervosa erfolgte vor und nach Gewichtszunahme. Weiterhin wurden zugrundeliegende biologische Mechanismen überprüft. Zudem wurde die Spezifität kognitiver Dysfunktionen für beide Störungsbilder untersucht und bei Patienten mit unipolaren Affektiven Störungen geschlechtsbezogene Unterschiede exploriert. Insgesamt gingen 47 Patientinnen mit Anorexia nervosa (mittleres Alter 16,3 + 1,6 Jahre), 39 Patienten mit unipolaren Affektiven Störungen (mittleres Alter 15,5 + 1,3 Jahre) sowie 78 Kontrollprobanden (mittleres Alter 16,5 + 1,3 Jahre) in die Untersuchung ein. Sämtliche Studienteilnehmer durchliefen eine neuropsychologische Testbatterie, bestehend aus Verfahren zur Überprüfung der kognitiven Flexibilität sowie visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Neben einem Intelligenzscreening wurden zudem das Ausmaß der depressiven Symptomatik sowie die allgemeine psychische Belastung erfasst. Die Ergebnisse legen nahe, dass bei adoleszenten Patientinnen mit Anorexia nervosa, sowohl im akut untergewichtigen Zustand als auch nach Gewichtszunahme, lediglich milde Beeinträchtigungen in den kognitiven Funktionen vorliegen. Im akut untergewichtigen Zustand offenbarten sich deutliche Zusammenhänge zwischen dem appetitregulierenden Peptid Agouti-related Protein und kognitiver Flexibilität, nicht jedoch zwischen Agouti-related Protein und visueller oder psychomotorischer Verarbeitungsgeschwindigkeit. Bei dem Vergleich von Anorexia nervosa und unipolaren Affektiven Störungen prädizierte die Zugehörigkeit zu der Patientengruppe Anorexia nervosa ein Risiko für das Vorliegen kognitiver Dysfunktionen. Es zeigte sich zudem, dass adoleszente Patienten mit unipolaren Affektiven Störungen lediglich in der psychomotorischen Verarbeitungsgeschwindigkeit tendenziell schwächere Leistungen offenbarten als gesunde Kontrollprobanden. Es ergab sich jedoch ein genereller geschlechtsbezogener Vorteil für weibliche Probanden in der visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Die vorliegenden Befunde unterstreichen die Notwendigkeit der Überprüfung kognitiver Funktionen bei adoleszenten Patienten mit Anorexia nervosa sowie unipolaren Affektiven Störungen in der klinischen Routinediagnostik. Die Patienten könnten von spezifischen Therapieprogrammen profitieren, die Beeinträchtigungen in den kognitiven Funktionen mildern bzw. präventiv behandeln. N2 - Anorexia nervosa and unipolar affective disorders are common and severe psychiatric disorders whose pathogenesis is not fully understood so far. Several studies have revealed serious impairments in cognitive functions among adult patients whereas recent research in adolescent patients shows only subtle cognitive dysfunctions. The prevalence in both disorders increases with the beginning of adolescence. Cognitive impairments that occur during adolescence may exacerbate the course of disease. Early cognitive deficits may also hinder treatment efforts and prognosis to a greater extent than during adulthood. Moreover, there is a higher risk for chronification. In the present study cognitive functions in adolescent patients with anorexia nervosa and unipolar affective disorders were examined. Cognitive functions in patients with anorexia nervosa were assessed before and after weight gain. Furthermore, the underlying biological mechanisms were explored. Moreover, the specificity for these psychiatric diagnoses as well as gender differences in patients with unipolar affective disorders were investigated. 47 patients with anorexia nervosa (mean age 16.3 + 1.6), 39 patients with unipolar affective disorders (mean age 15.5 + 1.3) and 78 healthy adolescents (mean age 16.5 + 1.3) participated in this study. Each of them completed a battery of neuropsychological tests for cognitive functions including tests for assessing cognitive flexibility as well as visual and psychomotor processing speed. Moreover, intelligence, depressive symptoms and psychological stress were explored. The findings revealed only subtle cognitive impairments in adolescent patients with anorexia nervosa, both in underweight condition and after weight gain. Besides, the results showed an association between cognitive flexibility and plasma agouti-related protein levels in female adolescent patients with acute anorexia nervosa, but not for visual or psychomotor speed and plasma agouti-related protein levels. Comparing anorexia nervosa and unipolar affective disorders, the results suggested a higher risk for cognitive dysfunctions when belonging to the anorexia nervosa group. Furthermore, the results only revealed a slightly weaker performance in psychomotor processing speed in adolescent patients with unipolar affective disorders compared to healthy adolescents. Moreover, female subjects generally displayed a better performance in visual and psychomotor processing speed. The present findings underlie the necessity of exploring cognitive functions in adolescent patients with anorexia nervosa and unipolar affective disorders within routine clinical diagnostic. Patients may benefit from specific therapy programs to reduce or prevent cognitive dysfunctions. KW - Anorexia nervosa KW - unipolare affektive Störungen KW - kognitive Funktionen KW - Jugendliche KW - anorexia nervosa KW - unipolar affective disorders KW - cognitive functions KW - adolescents Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72439 ER -