TY - THES A1 - Ziese, Ramona T1 - Geometric electroelasticity T1 - Geometrische Elektroelastizität N2 - In this work a diffential geometric formulation of the theory of electroelasticity is developed which also includes thermal and magnetic influences. We study the motion of bodies consisting of an elastic material that are deformed by the influence of mechanical forces, heat and an external electromagnetic field. To this end physical balance laws (conservation of mass, balance of momentum, angular momentum and energy) are established. These provide an equation that describes the motion of the body during the deformation. Here the body and the surrounding space are modeled as Riemannian manifolds, and we allow that the body has a lower dimension than the surrounding space. In this way one is not (as usual) restricted to the description of the deformation of three-dimensional bodies in a three-dimensional space, but one can also describe the deformation of membranes and the deformation in a curved space. Moreover, we formulate so-called constitutive relations that encode the properties of the used material. Balance of energy as a scalar law can easily be formulated on a Riemannian manifold. The remaining balance laws are then obtained by demanding that balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space. This generalizes a result by Marsden and Hughes that pertains to bodies that have the same dimension as the surrounding space and does not allow the presence of electromagnetic fields. Usually, in works on electroelasticity the entropy inequality is used to decide which otherwise allowed deformations are physically admissible and which are not. It is alsoemployed to derive restrictions to the possible forms of constitutive relations describing the material. Unfortunately, the opinions on the physically correct statement of the entropy inequality diverge when electromagnetic fields are present. Moreover, it is unclear how to formulate the entropy inequality in the case of a membrane that is subjected to an electromagnetic field. Thus, we show that one can replace the use of the entropy inequality by the demand that for a given process balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space and under linear rescalings of the temperature. On the one hand, this demand also yields the desired restrictions to the form of the constitutive relations. On the other hand, it needs much weaker assumptions than the arguments in physics literature that are employing the entropy inequality. Again, our result generalizes a theorem of Marsden and Hughes. This time, our result is, like theirs, only valid for bodies that have the same dimension as the surrounding space. N2 - In der vorliegenden Arbeit wird eine diffentialgeometrische Formulierung der Elektroelastizitätstheorie entwickelt, die auch thermische und magnetische Einflüsse berücksichtigt. Hierbei wird die Bewegung von Körpern untersucht, die aus einem elastischen Material bestehen und sich durch mechanische Kräfte, Wärmezufuhr und den Einfluss eines äußeren elektromagnetischen Feldes verformen. Dazu werden physikalische Bilanzgleichungen (Massenerhaltung, Impuls-, Drehimpuls- und Energiebilanz) aufgestellt, um mit deren Hilfe eine Gleichung zu formulieren, die die Bewegung des Körpers während der Deformation beschreibt. Dabei werden sowohl der Körper als auch der umgebende Raum als Riemannsche Mannigfaltigkeiten modelliert, wobei zugelassen ist, dass der Körper eine geringere Dimension hat als der ihn umgebende Raum. Auf diese Weise kann man nicht nur - wie sonst üblich - die Deformation dreidimensionaler Körper im dreidimensionalen euklidischen Raum beschreiben, sondern auch die Deformation von Membranen und die Deformation innerhalb eines gekrümmten Raums. Weiterhin werden sogenannte konstitutive Gleichungen formuliert, die die Eigenschaften des verwendeten Materials kodieren. Die Energiebilanz ist eine skalare Gleichung und kann daher leicht auf Riemannschen Mannigfaltigkeiten formuliert werden. Es wird gezeigt, dass die Forderung der Invarianz der Energiebilanz unter der Wirkung von beliebigen Diffeomorphismen auf den umgebenden Raum bereits die restlichen Bilanzgleichungen impliziert. Das verallgemeinert ein Resultat von Marsden und Hughes, das nur für Körper anwendbar ist, die die selbe Dimension wie der umgebende Raum haben und keine elektromagnetischen Felder berücksichtigt. Üblicherweise wird in Arbeiten über Elektroelastizität die Entropieungleichung verwendet, um zu entscheiden, welche Deformationen physikalisch zulässig sind und welche nicht. Sie wird außerdem verwendet, um Einschränkungen für die möglichen Formen von konstitutiven Gleichungen, die das Material beschreiben, herzuleiten. Leider gehen die Meinungen über die physikalisch korrekte Formulierung der Entropieungleichung auseinander sobald elektromagnetische Felder beteiligt sind. Weiterhin ist unklar, wie die Entropieungleichung für den Fall einer Membran, die einem elektromagnetischen Feld ausgesetzt ist, formuliert werden muss. Daher zeigen wir, dass die Benutzung der Entropieungleichung ersetzt werden kann durch die Forderung, dass für einen gegebenen Prozess die Energiebilanz invariant ist unter der Wirkung eines beliebigen Diffeomorphimus' auf den umgebenden Raum und der linearen Reskalierung der Temperatur. Zum einen liefert diese Forderung die gewünschten Einschränkungen für die Form der konstitutiven Gleichungen, zum anderen benoetigt sie viel schwächere Annahmen als die übliche Argumentation mit der Entropieungleichung, die man in der Physikliteratur findet. Unser Resultat ist dabei wieder eine Verallgemeinerung eines Theorems von Marsden und Hughes, wobei es, so wie deren Resultat, nur für Körper gilt, die als offene Teilmengen des dreidimensionalen euklidischen Raums modelliert werden können. KW - Elastizität KW - Elektrodynamik KW - Mannigfaltigkeit KW - konstitutive Gleichungen KW - Bewegungsgleichung KW - elasticity KW - electrodynamics KW - manifold KW - constitutive relations KW - equation of motion Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72504 ER - TY - THES A1 - Zibulski, Romy T1 - Taxonomic composition and biochemical and isotopic characteristics of North-Siberian mosses and their application to the palaeoecological reconstruction of tundra polygon development Y1 - 2014 ER - TY - THES A1 - Zhou, Xu T1 - Atmospheric interactions with land surface in the arctic based on regional climate model solutions Y1 - 2014 ER - TY - THES A1 - Zerle-Elsäßer, Claudia T1 - Wer wird Vater und wann? BT - Zur Kinderlosigkeit von Männern und dem Timing einer ersten Vaterschaft im Lebenslauf Y1 - 2014 SN - 978-3-86573-844-8 PB - Wiss. Verl. CY - Berlin ER - TY - THES A1 - Zamorano Gonzalez, Sebastian T1 - Entthronung der Politik? zum Demokratiebegriff im Denken Hayeks T2 - Schriftenreihe der Stipendiatinnen und Stipendiaten der Friedrich-Ebert-Stiftung Y1 - 2014 SN - 978-3-643-12494-4 VL - 45 PB - LIT-Verl. CY - Berlin ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Yadavalli, Nataraja Sekhar T1 - Advances in experimental methods to probe surface relief grating formation mechanism in photosensitive materials T1 - Entstehung von Oberflächengittern in lichtempfindlichen Materialien N2 - When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film. N2 - Azobenzolhaltige Polymere gehören zu einer Klasse funktionaler Materialien, bei denen durch ein äußeres Strahlungsfeld eine starke mechanische Reaktion ausgelöst werden kann. Durch die Bindung an das Polymerrückgrat können die Azobenzole, die unter UV-Belichtung eine Photoisomerisierung ausführen, was zum Teil drastische Effekte zur Folge hat. Unter Belichtung mit Intensitätsmustern, d.h. mit räumlich variierender Verteilung der Polarisation oder der Intensität des einfallenden Lichts verändert sich die Topographie der azobenzolhaltigen Filme, was zur Bildung von Oberflächengittern (engl. Surface Relief Gratings, SRG) führt. In dieser Arbeit wurde eine neue Methode vorgeschlagen, bei der das Verhalten elastischer/morphologischer Eigenschaften unter verschiedenen Belichtungsbedingungen, d.h. mit unterschiedlicher Verteilung der Polarisation und der Intensität in situ lokal als Funktion der Position entlang der SRG aufgenommen werden kann. Außerdem wurde hier vorgeschlagen, opto-mechanische Spannungen, die innerhalb der photosensitiven Polymerfilme während der Belichtung entstehen, mit Hilfe dünner aufgebrachter metallischen Schichten abzubilden und zu analysieren. KW - Azobenzolhaltige Polymerfilme KW - Oberflächengitter KW - In-situ Rasterkraftmikroskopie KW - Opto-mechanische Spannungen KW - Metall/Graphen/Polymer Grenzfläch KW - azobenzene polymer films KW - surface relief grating KW - in-situ atomic force microscopy KW - opto-mechanical stresses KW - metal/polymer interfaces Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71213 ER - TY - THES A1 - Wölbern, Jan Philipp T1 - Der Häftlingsfreikauf aus der DDR 1962/63 - 1989 : zwischen Menschenhandel und humanitären Aktionen T2 - Analysen und Dokumente Y1 - 2014 SN - 978-3-525-35079-9 VL - 38 PB - Vandenhoeck & Ruprecht CY - Göttingen ER - TY - THES A1 - Wunderlich, Kai T1 - Entwicklung einer parallelen Mehrkomponentenanalyse von Antigen-Antikörper-Reaktionen in der Dopinganalyse T1 - Development of a multiplex-assay for the analysis of antigen-antibody reactions in doping analysis N2 - Weltweit streben Anti-Doping Institute danach jene Sportler zu überführen, welche sich unerlaubter Mittel oder Methoden bedienen. Die hierfür notwendigen Testsysteme werden kontinuierlich weiterentwickelt und neue Methoden aufgrund neuer Wirkstoffe der Pharmaindustrie etabliert. Gegenstand dieser Arbeit war es, eine parallele Mehrkomponentenanalyse auf Basis von Antigen-Antikörper Reaktionen zu entwickeln, bei dem es primär um Verringerung des benötigten Probevolumens und der Versuchszeit im Vergleich zu einem Standard Nachweis-Verfahren ging. Neben der Verwendung eines Multiplex Ansatzes und der Mikroarraytechnologie stellten ebenfalls die Genauigkeit aller Messparameter, die Stabilität des Versuchsaufbaus sowie die Performance über einen Einfach-Blind-Ansatz Herausforderungen dar. Die Anforderung an den Multiplex Ansatz, keine falschen Signale trotz ähnlicher Strukturen zu messen, konnte durch die gezielte Kombination von spezifischen Antikörpern realisiert werden. Hierfür wurden neben Kreuzreaktivitätstests auf dem Mikroarray parallel erfolgreich Western Blot Versuche durchgeführt. Jene Antikörper, welche in diesen Versuchen die gesetzten Anforderungen erfüllten, wurden für das Ermitteln der kleinsten nachweisbaren Konzentration verwendet. Über das Optimieren der Versuchsbedingungen konnte unter Verwendung von Tween in der Waschlösung sowohl auf Glas als auch auf Kunststoff die Hintergrundfluoreszenz reduziert und somit eine Steigerung des Signal/Hintergrundverhältnisses erreicht werden. In den Versuchen zu Ermittlung der Bestimmungsgrenze wurde für das humane Choriongonadotropin (hCG-i) eine Konzentration von 10 mU/ml, für dessen beta-Untereinheit (hCG-beta) eine Konzentration von 3,6 mU/ml und für das luteinisierende Hormon (LH) eine Konzentration von 10 mU/ml bestimmt. Den ermittelten Wert im Serum für das hCG-i entspricht dem von der Welt-Anti-Dopin-Agentur (WADA) geforderten Wert in Urin von 5 mU/ml. Neben der Ermittlung von Bestimmungsgrenzen wurden diese hinsichtlich auftretender Matrixeffekte in Serum und Blut gemessen. Wie aus den Versuchen zur Ermittlung von Kreuzreaktivitäten auf dem Mikroarray zu entnehmen ist, lassen sich das LH, das hCG-i und hCG-β ebenfalls in Serum und Blut messen. Die Durchführung einer Performance-Analyse über einem Einfach-Blind-Ansatz mit 130 Serum Proben, wurde ebenfalls über dieses System realisiert. Die ausgewerteten Proben wurden anschließend über eine Grenzwertoptimierungskurve analysiert und die diagnostische Spezifität ermittelt. Für die Messungen des LH konnte eine Sensitivität und Spezifität von 100% erreicht werden. Demnach wurden alle negativen und positiven Proben eindeutig interpretiert. Für das hCG-β konnte ebenfalls eine Spezifität von 100% und eine Sensitivität von 97% erreicht werden. Die hCG-i Proben wurden mit einer Spezifität von 100% und eine Sensitivität von 97,5% gemessen. Um den Nachweis zu erbringen, dass dieser Versuchsaufbau über mehrere Wochen stabile Signale bei Vermessen von identischen Proben liefert, wurde ein über zwölf Wochen angesetzter Stabilitätstest für alle Parameter erfolgreich in Serum und Blut durchgeführt. Zusammenfassend konnte in dieser Arbeit erfolgreich eine Mehrkomponentenanalyse als Multiplex Ansatz auf einem Mikroarray entwickelt werden. Die Durchführung der Performance-Analyse und des Stabilitätstests zeigen bereits die mögliche Einsatzfähigkeit dieses Tests im Kontext einer Dopinganalyse. N2 - Worldwide it is the goal of anti-doping institutes to have a fair competition in sports free of doping and to prevent the misuse of therapeutics for doping purposes. Therefore there is a need to continuously develop new rapid test methods for the analysis and identification of pharmaceutical substances. Herein, the focus was to develop a multiplex assay on the basis of antigen antibody reactions in doping analysis. It was one goal to reduce the sample volume and the measurement time in comparison to standard methods (i.e. ELISA). Additional challenges were the application of a multiplex approach on the basis of microarray technology and to achieve a high sensitivity and precision. The major challenge for a multiplex analysis is the specific detection of all analytes without producing false positive signals, even of those analytes with similar molecular structure. This was solved using a special combination of specific monoclonal antibodies. Therefore cross-reaction-tests on the microarray platform and western blot analysis were performed simultaneously. Subsequently, the relevant antibodies were used for the analysis of the minimum detectable concentration. Optimization of experimental conditions on glass and polymer surfaces (i.e. COP) led to a reduction of the background fluorescence, resulting in an increase of signal-to-background ratio. The measured limit of detection (LOD) for the human choriongonadotropin (hCG-i) was a concentration of 10 mU/ml, for the beta-subunit (hCG-beta) 3,6 mU/ml and for the luteinizing hormone (LH) 10 mU/ml. The value of hCG-i in serum correlates to the claimed threshold limit from the world anti doping agency (WADA) of 5 mU/ml in urine. In parallel, matrix effects were analyzed in serum and whole blood. In a crossreactivity study it was shown, that it is possible to measure all three parameters in serum and whole blood independently. The performance analysis of a blinded experiment with 130 serum samples was analyzed with receiver operating characteristic (ROC) and showed the diagnostic specificity. For LH the specificity and sensitivity was 100%, for hCG-beta a specificity of 100% and a sensitivity of 97% was measured. The samples for hCG-i were measured with a specificity of 100% and a sensitivity of 97,5%. For the evidence of stability for several weeks of the experimental setup, a stability testing over a period of 12 weeks was performed. Identical samples gave stable signals over a period of 10 weeks in serum as well as in whole blood. In summary the development of a multiplex assay for the analysis of antigen-antibody reactions in doping analysis for LH and hCG was successful and represents a proof of concept. Due to the promising results in the performance analysis and the stability tests it might be possible to insert that kind of multiplex assay as a test method for the anti doping analysis. KW - Mehrkomponentenanalyse KW - Multiplex KW - Doping KW - Schnelltest KW - hCG KW - multiplex assay KW - microarray KW - dopingtest KW - point-of-care KW - in-vitro diagnostic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76869 ER - TY - THES A1 - Wunderlich, Janka T1 - El lunfardo : Kontaktvarietät der Migrationskultur am Rio de la Plata und in der Welt des Tango T2 - Sprachkontakte : Variation, Migration und Sprachdynamik Y1 - 2014 SN - 978-3-631-65013-4 VL - 3 PB - Peter Lang GmbH Internationaler Verlag der Wissenschaften CY - Frankfurt ER - TY - THES A1 - Wirth, Jonas A. T1 - Chemische Reaktionen in Substrat-Adsorbat-Systemen BT - eine kinetische Perspektive Y1 - 2014 ER - TY - THES A1 - Wilde, Anja T1 - Ausprägungen räumlicher Identität in ehemaligen sudetendeutschen Gebieten der Tschechischen Republik T1 - Spatial identities in former Sudeten German regions of the Czech Republic BT - the examples of the districts of Tachov (Tachau) and Sokolov (Falkenau) BT - am Beispiel der Bezirke Tachov (Tachau) und Sokolov (Falkenau) N2 - Das tschechische Grenzgebiet ist eine der Regionen in Europa, die in der Folge des Zweiten Weltkrieges am gravierendsten von Umbrüchen in der zuvor bestehenden Bevölkerungsstruktur betroffen waren. Der erzwungenen Aussiedlung eines Großteils der ansässigen Bevölkerung folgten die Neubesiedlung durch verschiedenste Zuwanderergruppen sowie teilweise langanhaltende Fluktuationen der Einwohnerschaft. Die Stabilisierung der Bevölkerung stand sodann unter dem Zeichen der sozialistischen Gesellschafts- und Wirtschaftsordnung, die die Lebensweise und Raumwahrnehmung der neuen Einwohner nachhaltig prägte. Die Grenzöffnung von 1989, die politische Transformation sowie die Integration der Tschechischen Republik in die Europäische Union brachten neue demographische und sozioökonomische Entwicklungen mit sich. Sie schufen aber auch die Bedingungen dafür, sich neu und offen auch mit der spezifischen Geschichte des ehemaligen Sudetenlandes sowie mit dem Zustand der gegenwärtigen Gesellschaft in diesem Gebiet auseinanderzusetzen. Im Rahmen der vorliegenden Arbeit wird anhand zweier Beispielregionen untersucht, welche Raumvorstellungen und Raumbindungen bei der heute in den ehemaligen sudetendeutschen Gebieten ansässigen Bevölkerung vorhanden sind und welche Einflüsse die unterschiedlichen raumstrukturellen Bedingungen darauf ausüben. Besonderes Augenmerk wird auf die soziale Komponente der Ausprägung räumlicher Identität gelegt, das heißt auf die Rolle von Bedeutungszuweisungen gegenüber Raumelementen im Rahmen sozialer Kommunikation und Interaktion. Dies erscheint von besonderer Relevanz in einem Raum, der sich durch eine gewisse Heterogenität seiner Einwohnerschaft hinsichtlich ihres ethnischen, kulturellen beziehungsweise biographischen Hintergrundes auszeichnet. Schließlich wird ermittelt, welche Impulse unter Umständen von einer ausgeprägten räumlichen Identität für die Entwicklung des Raumes ausgehen. N2 - The Czech border area is one of the regions in Europe which were most seriously affected by radical changes in the previous population structure during the post-Second World War period. The forced out-migration of the majority of the resident population was followed by the new settlement of different immigrant groups as well as partly long lasting fluctuations of the inhabitants. The subsequent stabilization of the population took place under the conditions of the socialist social order and economic system which greatly affected the way of life of the new inhabitants as well as their perception of the environment. The opening of the border in 1989, the political transformation and the integration of the Czech Republic into the EU brought about new demographic and socio-economic developments. This also facilitated a more open dealing with the specific history of the former “Sudetenland” and with the state of contemporary society in the region. Based on the example of two regions in Western Bohemia, the study examines how the current inhabitants experience their environment, what kind of relationship they have towards it and what structural conditions influence these phenomena. Special attention is paid to the social component of the development of spacial identity, i.e. to the role of assignment of meaning to spatial elements in the process of social communication and interaction. This seems to be particularly relevant in the region characterized by a certain heterogeneity of its inhabitants with regard to their ethnic, cultural or biographic background. Finally, it is examined what impacts a distinct spatial identity may have on the development of the region. T3 - Praxis Kultur- und Sozialgeographie | PKS - 59 KW - Tschechische Republik KW - Grenzgebiet KW - räumliche Identität KW - Czech Republic KW - border area KW - spatial identity Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-70247 SN - 978-3-86956-311-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wienhöfer, Jan T1 - On the role of structure-process interactions in controlling terrestrial systems : an exemplare of hillslope hydrology and a slow-moving landslide Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Widdrat, Marc T1 - Formation and alteration of magnetite nanoparticles N2 - Magnetite is an iron oxide, which is ubiquitous in rocks and is usually deposited as small nanoparticulate matter among other rock material. It differs from most other iron oxides because it contains divalent and trivalent iron. Consequently, it has a special crystal structure and unique magnetic properties. These properties are used for paleoclimatic reconstructions where naturally occurring magnetite helps understanding former geological ages. Further on, magnetic properties are used in bio- and nanotechnological applications –synthetic magnetite serves as a contrast agent in MRI, is exploited in biosensing, hyperthermia or is used in storage media. Magnetic properties are strongly size-dependent and achieving size control under preferably mild synthesis conditions is of interest in order to obtain particles with required properties. By using a custom-made setup, it was possible to synthesize stable single domain magnetite nanoparticles with the co-precipitation method. Furthermore, it was shown that magnetite formation is temperature-dependent, resulting in larger particles at higher temperatures. However, mechanistic approaches about the details are incomplete. Formation of magnetite from solution was shown to occur from nanoparticulate matter rather than solvated ions. The theoretical framework of such processes has only started to be described, partly due to the lack of kinetic or thermodynamic data. Synthesis of magnetite nanoparticles at different temperatures was performed and the Arrhenius plot was used determine an activation energy for crystal growth of 28.4 kJ mol-1, which led to the conclusion that nanoparticle diffusion is the rate-determining step. Furthermore, a study of the alteration of magnetite particles of different sizes as a function of their storage conditions is presented. The magnetic properties depend not only on particle size but also depend on the structure of the oxide, because magnetite oxidizes to maghemite under environmental conditions. The dynamics of this process have not been well described. Smaller nanoparticles are shown to oxidize more rapidly than larger ones and the lower the storage temperature, the lower the measured oxidation. In addition, the magnetic properties of the altered particles are not decreased dramatically, thus suggesting that this alteration will not impact the use of such nanoparticles as medical carriers. Finally, the effect of biological additives on magnetite formation was investigated. Magnetotactic bacteria¬¬ are able to synthesize and align magnetite nanoparticles of well-defined size and morphology due to the involvement of special proteins with specific binding properties. Based on this model of morphology control, phage display experiments were performed to determine peptide sequences that preferably bind to (111)-magnetite faces. The aim was to control the shape of magnetite nanoparticles during the formation. Magnetotactic bacteria are also able to control the intracellular redox potential with proteins called magnetochromes. MamP is such a protein and its oxidizing nature was studied in vitro via biomimetic magnetite formation experiments based on ferrous ions. Magnetite and further trivalent oxides were found. This work helps understanding basic mechanisms of magnetite formation and gives insight into non-classical crystal growth. In addition, it is shown that alteration of magnetite nanoparticles is mainly based on oxidation to maghemite and does not significantly influence the magnetic properties. Finally, biomimetic experiments help understanding the role of MamP within the bacteria and furthermore, a first step was performed to achieve morphology control in magnetite formation via co-precipitation. N2 - Magnetit ist ein Eisenoxid, welches ein häufiger Bestandteil in Mineralen ist und normalerweise als nm-großen Teilchen unter anderem Gesteinsmaterial verteilt ist. Es unterscheidet sich in seiner Zusammensetzung von den meisten anderen Eisenoxiden, da es sowohl divalente als auch trivalente Eisenoxide enthält. Die Folge ist eine besondere Kristallstruktur und somit einzigartige magnetische Eigenschaften. Diese Eigenschaften werden bei paläoklimatologischen Rekonstruktionen genutzt, bei denen natürlich vorkommender Magnetit hilft, die Bedingungen vergangener Zeitalter zu verstehen. Weiterhin werden die magnetischen Eigenschaften in bio- und nanotechnologischen Anwendungen genutzt. Synthetischer Magnetit dient als Kontrastmittel in der MRT, in biologischen Sensorsystemen, bei Hyperthermie-Behandlungen oder als Grundlage für Datenspeichermedien. Da die magnetischen Eigenschaften im nm-Bereich stark von der Größe der Teilchen abhängen, ist eine möglichst präzise Kontrolle der Größe von enormer Bedeutung. Mit Hilfe eines maßgefertigten Syntheseaufbaus war es möglich durch Mitfällung Teilchen oberhalb des superparamagnetischen Schwellenwerts zu produzieren. Außerdem konnte eine Temperaturabhängigkeit gezeigt werden; höhere Temperaturen während der Magnetit-Bildung resultieren in größeren Teilchen. Der Prozess dahinter ist jedoch noch nicht vollständig geklärt. Die Bildung von Magnetit in wässriger Lösung erfolgt nicht über Ionen, sondern wird über die zwischenzeitliche Bildung von nm-großen Vorläufern realisiert. Unter Berücksichtigung dieser Vorläufer wurde die Bildung von Magnetit in einen neuen theoretischen Rahmen gesetzt, jedoch mangelt es bisher an kinetischen Daten. Durch die Synthese von Magnetit bei unterschiedlichen Temperaturen konnte mit Hilfe des Arrhenius-Plots eine Aktivierungsenergie für das Kristallwachstum von 28.4 kJ mol-1 ermittelt werden. Dieser Wert deutet auf einen diffusionskontrollierten Prozess hin. Auch die Alterung von Magnetit-Nanopartikeln spielt eine wichtige Rolle, da Magnetit unter Umgebungsbedingungen zu Maghämit oxidiert wird. Deshalb wird hier eine Studie zur Alterung von Magnetit-Nanopartikeln unterschiedlicher Größe unter verschiedenen Lagerungsbedingungen präsentiert. Kleine Teilchen tendieren zu stärkerer Oxidation im selben Zeitraum und weiterhin oxidieren die Teilchen weniger, je geringer die Temperatur ist. Da Magnetit und Maghämit sich in ihren magnetischen Eigenschaften nur geringfügig unterscheiden, werden diese durch den oxidativen Prozess nur geringfügig beeinflusst. Als letztes wurde der Einfluss biologischer Zusätze zur Magnetit-Bildung überprüft. Magnetotaktische Bakterien sind in der Lage, Magnetit-Nanopartikel von definierter Größe und Morphologie herzustellen, involviert sind eine Reihe von spezifischen Proteinen mit speziellen Bindungseigenschaften. Darauf basierend wurden, zur Selektion spezifischer Peptidsequenzen, Phagen-Display-Experimente an einer (111)-Magnetitoberfläche durchgeführt. Diese sollten eine Morphologie-Kontrolle während der Magnetit-Synthese ermöglichen. Magnetotaktische Bakterien sind außerdem in der Lage das intrazelluläre Redox-Potential mit Hilfe von Proteinen, den Magnetochromen, zu kontrollieren. MamP ist eines dieser Proteine und sein oxidatives Potential wurde in einer in vitro-Magnetit-Synthese überprüft. Der Einsatz von FeII ergab sowohl Magnetit als auch trivalente Eisenoxide als Produkte. Diese Arbeit ermöglicht einen Einblick in die grundlegenden Mechanismen der Magnetit-Bildung, welche unter nicht-klassischen Bedingungen abläuft. Die Alterung der Nanopartikel, welche hauptsächlich die Oxidation zu Maghämit beinhaltet, hat nur geringen Einfluss auf die magnetischen Eigenschaften. Biomimetische Experimente halfen die Rolle von MamP innerhalb der Bakterien zu verstehen und zuletzt wurde ein erster Versuch unternommen, die von den Bakterien erreichte Morphologie-Kontrolle auch in vitro zu ermöglichen. T2 - Bildung und Alterung von Magnetit-Nanopartikeln KW - crystallization of magnetite nanoparticle KW - alteration of magnetite KW - growth kinetics KW - Kristallisation von Magnetit-Nanopartikeln KW - Wachstumskinetik KW - magnetische Eigenschaften KW - Röntgenbeugung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72239 ER - TY - THES A1 - Westemeier, Jens T1 - Himmlers Krieger : Joachim Peiper und die Waffen-SS in Krieg und Nachkriegszeit T2 - Krieg in der Geschichte Y1 - 2014 SN - 978-3-506-77241-1 VL - 71 PB - Schöningh CY - Paderborn ER - TY - THES A1 - Wagner, Stefanie T1 - Eine "unbekannte" Sprache lesen oder von der Entdeckung des Nissart durch Interkomprehension Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Vu, Dinh Phuong T1 - Using video study to investigate eighth-grade mathematics classrooms in Vietnam T1 - Die Nutzung von Videostudien zur Untersuchung des Mathematikunterrichts in der 8. Klasse in Vietnam N2 - The International Project for the Evaluation of Educational Achievement (IEA) was formed in the 1950s (Postlethwaite, 1967). Since that time, the IEA has conducted many studies in the area of mathematics, such as the First International Mathematics Study (FIMS) in 1964, the Second International Mathematics Study (SIMS) in 1980-1982, and a series of studies beginning with the Third International Mathematics and Science Study (TIMSS) which has been conducted every 4 years since 1995. According to Stigler et al. (1999), in the FIMS and the SIMS, U.S. students achieved low scores in comparison with students in other countries (p. 1). The TIMSS 1995 “Videotape Classroom Study” was therefore a complement to the earlier studies conducted to learn “more about the instructional and cultural processes that are associated with achievement” (Stigler et al., 1999, p. 1). The TIMSS Videotape Classroom Study is known today as the TIMSS Video Study. From the findings of the TIMSS 1995 Video Study, Stigler and Hiebert (1999) likened teaching to “mountain ranges poking above the surface of the water,” whereby they implied that we might see the mountaintops, but we do not see the hidden parts underneath these mountain ranges (pp. 73-78). By watching the videotaped lessons from Germany, Japan, and the United States again and again, they discovered that “the systems of teaching within each country look similar from lesson to lesson. At least, there are certain recurring features [or patterns] that typify many of the lessons within a country and distinguish the lessons among countries” (pp. 77-78). They also discovered that “teaching is a cultural activity,” so the systems of teaching “must be understood in relation to the cultural beliefs and assumptions that surround them” (pp. 85, 88). From this viewpoint, one of the purposes of this dissertation was to study some cultural aspects of mathematics teaching and relate the results to mathematics teaching and learning in Vietnam. Another research purpose was to carry out a video study in Vietnam to find out the characteristics of Vietnamese mathematics teaching and compare these characteristics with those of other countries. In particular, this dissertation carried out the following research tasks: - Studying the characteristics of teaching and learning in different cultures and relating the results to mathematics teaching and learning in Vietnam - Introducing the TIMSS, the TIMSS Video Study and the advantages of using video study in investigating mathematics teaching and learning - Carrying out the video study in Vietnam to identify the image, scripts and patterns, and the lesson signature of eighth-grade mathematics teaching in Vietnam - Comparing some aspects of mathematics teaching in Vietnam and other countries and identifying the similarities and differences across countries - Studying the demands and challenges of innovating mathematics teaching methods in Vietnam – lessons from the video studies Hopefully, this dissertation will be a useful reference material for pre-service teachers at education universities to understand the nature of teaching and develop their teaching career. N2 - Das International Project for the Evaluation of Educational Achievement (IEA) wurde in den 1950er Jahren gegründet. Seitdem führte das IEA viele Studien in Bereich mathematischer Bildung durch, insbesondere die First International Mathematics Study (FIMS) im Jahre 1964, die Second International Mathematics Study (SIMS) in den Jahren 1980–1982 und eine Reihe von Studien, die mit der Third International Mathematics and Science Study (TIMSS) begann und seit 1995 alle vier Jahre durchgeführt wird. Nach Stigler et al. (1999) erreichten US-amerikanische Studenten bei FIMS und SIMS niedrigere Ergebnisse als Schüler anderer Länder (S. 1). Daher wurde TIMSS 1995 erweitert um eine ‘Videotape Classroom Study’ mit dem Ziel, „mehr über die unterrichtlichen und kulturellen Prozesse, die mit Leistung zusammenhängen“, zu erfahren (S. 1; Übersetzung vom engl. Original). Von den Ergebnissen der TIMMS 1995 Video Study ausgehend verglichen Stigler und Hiebert (1999) Unterricht mit „Gebirgszügen, die die Wasseroberfläche durchstoßen“, womit sie ausdrücken sollten, was die Bergspitzen sichtbar, große Teile des Gebirges aber unter dem Wasser verborgen sind (S. 73–78; Übersetzung vom engl. Original). Durch die wiederholte Analyse videographierter Unterrichtsstunden aus Deutschland, Japan und den USA entdeckten sie, dass „die Arten des Unterrichts innerhalb jedes Landes von Stunde zu Stunde ähnlich sind. Zumindest gibt es bestimmte wiederkehrende Aspekte [oder Skripte], welche für viele Stunden eines Landes typisch sind und die Stunden gegenüber anderen Ländern abgrenzen“ (S. 77f.). Sie entdeckten außerdem, dass Unterricht eine „kulturelle Aktivität“ ist, Unterrichtsarten also „verstanden werden müssen in Relation zu den kulturellen Überzeugungen und Annahmen, die sie umgeben“ (S. 85, 88). Hierauf aufbauend war es ein Ziel der Dissertation, kulturelle Aspekte des Mathematikunterricht zu untersuchen und die Ergebnisse mit Mathematikunterricht in Vietnam zu vergleichen. Ein weiteres Ziel war die Erhebung der Charakteristika vietnamesischen Mathematikunterricht durch eine Videostudie in Vietnam und der anschließende Vergleich dieser Charakteristika mit denen anderer Länder. Im Einzelnen befasste sich diese Dissertation mit den folgenden Forschungszielen: - Untersuchung der Charakteristika von Lehren und Lernen in unterschiedlichen Kulturen und vorläufiger Vergleich der Resultate mit dem Lehren und Lernen von Mathematik in Vietnam - Einführung der TIMSS und der TIMSS Video Study und der methodologischen Vorteile von Videostudien für die Untersuchung von Mathematikunterricht in Vietnam - Durchführung der Videostudie in Vietnam, um Unterrichtsskripte des Mathematikunterrichts in 8. Klassen in Vietnam zu identifizieren - Vergleich ausgewählter Aspekte des Mathematikunterrichts in Vietnam mit denen anderer Länder auf der Grundlage der Videostudie in Vietnam und Diskussion von Ähnlichkeiten und Unterschieden zwischen Ländern - Untersuchung der Herausforderungen für eine Innovation der Unterrichtsmethoden im Mathematikunterricht Vietnams Diese Dissertation entstand in der Hoffnung, dass sie eine nützliche Referenz für Lehramtsstudenten zum Verständnis der Natur des Unterrichts und zur Entwicklung der eigenen Lehrerpersönlichkeit darstellen möge. KW - Videostudie KW - Mathematikunterricht KW - Unterrichtsmethode KW - TIMSS KW - Kulturelle Aktivität KW - video study KW - mathematics education KW - teaching methods KW - TIMSS KW - Vietnam Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72464 ER - TY - THES A1 - von Wittich, Henning T1 - Entwicklungsstufen von Governance als Reaktion auf Doping im Deutschen Leistungssport nach der Wiedervereinigung T2 - Politica : Schriftenreihe zur politischen Wirtschaft Y1 - 2014 SN - 978-3-8300-7771-8 VL - 101 PB - Kova? CY - Hamburg ER - TY - THES A1 - Videla, Santiago T1 - Reasoning on the response of logical signaling networks with answer set programming T1 - Modellierung Logischer Signalnetzwerke mittels Antwortmengenprogrammierung N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. KW - Systembiologie KW - logische Signalnetzwerke KW - Antwortmengenprogrammierung KW - systems biology KW - logical signaling networks KW - answer set programming Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71890 ER - TY - THES A1 - Tympel, Jens Günter T1 - Numerical modeling of the Cenozoic Pamir-Tien Shan orogeny Y1 - 2014 ER - TY - THES A1 - Trümper, Jonas T1 - Visualization techniques for the analysis of software behavior and related structures T1 - Visualisierungstechniken für die Analyse von Softwareverhalten und verwandter Strukturen N2 - Software maintenance encompasses any changes made to a software system after its initial deployment and is thereby one of the key phases in the typical software-engineering lifecycle. In software maintenance, we primarily need to understand structural and behavioral aspects, which are difficult to obtain, e.g., by code reading. Software analysis is therefore a vital tool for maintaining these systems: It provides - the preferably automated - means to extract and evaluate information from their artifacts such as software structure, runtime behavior, and related processes. However, such analysis typically results in massive raw data, so that even experienced engineers face difficulties directly examining, assessing, and understanding these data. Among other things, they require tools with which to explore the data if no clear question can be formulated beforehand. For this, software analysis and visualization provide its users with powerful interactive means. These enable the automation of tasks and, particularly, the acquisition of valuable and actionable insights into the raw data. For instance, one means for exploring runtime behavior is trace visualization. This thesis aims at extending and improving the tool set for visual software analysis by concentrating on several open challenges in the fields of dynamic and static analysis of software systems. This work develops a series of concepts and tools for the exploratory visualization of the respective data to support users in finding and retrieving information on the system artifacts concerned. This is a difficult task, due to the lack of appropriate visualization metaphors; in particular, the visualization of complex runtime behavior poses various questions and challenges of both a technical and conceptual nature. This work focuses on a set of visualization techniques for visually representing control-flow related aspects of software traces from shared-memory software systems: A trace-visualization concept based on icicle plots aids in understanding both single-threaded as well as multi-threaded runtime behavior on the function level. The concept’s extensibility further allows the visualization and analysis of specific aspects of multi-threading such as synchronization, the correlation of such traces with data from static software analysis, and a comparison between traces. Moreover, complementary techniques for simultaneously analyzing system structures and the evolution of related attributes are proposed. These aim at facilitating long-term planning of software architecture and supporting management decisions in software projects by extensions to the circular-bundle-view technique: An extension to 3-dimensional space allows for the use of additional variables simultaneously; interaction techniques allow for the modification of structures in a visual manner. The concepts and techniques presented here are generic and, as such, can be applied beyond software analysis for the visualization of similarly structured data. The techniques' practicability is demonstrated by several qualitative studies using subject data from industry-scale software systems. The studies provide initial evidence that the techniques' application yields useful insights into the subject data and its interrelationships in several scenarios. N2 - Die Softwarewartung umfasst alle Änderungen an einem Softwaresystem nach dessen initialer Bereitstellung und stellt damit eine der wesentlichen Phasen im typischen Softwarelebenszyklus dar. In der Softwarewartung müssen wir insbesondere strukturelle und verhaltensbezogene Aspekte verstehen, welche z.B. alleine durch Lesen von Quelltext schwer herzuleiten sind. Die Softwareanalyse ist daher ein unverzichtbares Werkzeug zur Wartung solcher Systeme: Sie bietet - vorzugsweise automatisierte - Mittel, um Informationen über deren Artefakte, wie Softwarestruktur, Laufzeitverhalten und verwandte Prozesse, zu extrahieren und zu evaluieren. Eine solche Analyse resultiert jedoch typischerweise in großen und größten Rohdaten, die selbst erfahrene Softwareingenieure direkt nur schwer untersuchen, bewerten und verstehen können. Unter Anderem dann, wenn vorab keine klare Frage formulierbar ist, benötigen sie Werkzeuge, um diese Daten zu erforschen. Hierfür bietet die Softwareanalyse und Visualisierung ihren Nutzern leistungsstarke, interaktive Mittel. Diese ermöglichen es Aufgaben zu automatisieren und insbesondere wertvolle und belastbare Einsichten aus den Rohdaten zu erlangen. Beispielsweise ist die Visualisierung von Software-Traces ein Mittel, um das Laufzeitverhalten eines Systems zu ergründen. Diese Arbeit zielt darauf ab, den "Werkzeugkasten" der visuellen Softwareanalyse zu erweitern und zu verbessern, indem sie sich auf bestimmte, offene Herausforderungen in den Bereichen der dynamischen und statischen Analyse von Softwaresystemen konzentriert. Die Arbeit entwickelt eine Reihe von Konzepten und Werkzeugen für die explorative Visualisierung der entsprechenden Daten, um Nutzer darin zu unterstützen, Informationen über betroffene Systemartefakte zu lokalisieren und zu verstehen. Da es insbesondere an geeigneten Visualisierungsmetaphern mangelt, ist dies eine schwierige Aufgabe. Es bestehen, insbesondere bei komplexen Softwaresystemen, verschiedenste offene technische sowie konzeptionelle Fragestellungen und Herausforderungen. Diese Arbeit konzentriert sich auf Techniken zur visuellen Darstellung kontrollflussbezogener Aspekte aus Software-Traces von Shared-Memory Softwaresystemen: Ein Trace-Visualisierungskonzept, basierend auf Icicle Plots, unterstützt das Verstehen von single- und multi-threaded Laufzeitverhalten auf Funktionsebene. Die Erweiterbarkeit des Konzepts ermöglicht es zudem spezifische Aspekte des Multi-Threading, wie Synchronisation, zu visualisieren und zu analysieren, derartige Traces mit Daten aus der statischen Softwareanalyse zu korrelieren sowie Traces mit einander zu vergleichen. Darüber hinaus werden komplementäre Techniken für die kombinierte Analyse von Systemstrukturen und der Evolution zugehöriger Eigenschaften vorgestellt. Diese zielen darauf ab, die Langzeitplanung von Softwarearchitekturen und Management-Entscheidungen in Softwareprojekten mittels Erweiterungen an der Circular-Bundle-View-Technik zu unterstützen: Eine Erweiterung auf den 3-dimensionalen Raum ermöglicht es zusätzliche visuelle Variablen zu nutzen; Strukturen können mithilfe von Interaktionstechniken visuell bearbeitet werden. Die gezeigten Techniken und Konzepte sind allgemein verwendbar und lassen sich daher auch jenseits der Softwareanalyse einsetzen, um ähnlich strukturierte Daten zu visualisieren. Mehrere qualitative Studien an Softwaresystemen in industriellem Maßstab stellen die Praktikabilität der Techniken dar. Die Ergebnisse sind erste Belege dafür, dass die Anwendung der Techniken in verschiedenen Szenarien nützliche Einsichten in die untersuchten Daten und deren Zusammenhänge liefert. KW - Visualisierung KW - Softwarewartung KW - Softwareanalyse KW - Softwarevisualisierung KW - Laufzeitverhalten KW - visualization KW - software maintenance KW - software analysis KW - software visualization KW - runtime behavior Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72145 ER - TY - THES A1 - Trost, Gerda T1 - Poly(A) Polymerase 1 (PAPS1) influences organ size and pathogen response in Arabidopsis thaliana T1 - Poly(A) Polymerase 1 (PAPS1) beeinflusst die Organgröße und Pathogenantwort in Arabidopsis thaliana N2 - Polyadenylation of pre-mRNAs is critical for efficient nuclear export, stability, and translation of the mature mRNAs, and thus for gene expression. The bulk of pre-mRNAs are processed by canonical nuclear poly(A) polymerase (PAPS). Both vertebrate and higher-plant genomes encode more than one isoform of this enzyme, and these are coexpressed in different tissues. However, in neither case is it known whether the isoforms fulfill different functions or polyadenylate distinct subsets of pre-mRNAs. This thesis shows that the three canonical nuclear PAPS isoforms in Arabidopsis are functionally specialized owing to their evolutionarily divergent C-terminal domains. A moderate loss-of-function mutant in PAPS1 leads to increase in floral organ size, whereas leaf size is reduced. A strong loss-of-function mutation causes a male gametophytic defect, whereas a weak allele leads to reduced leaf growth. By contrast, plants lacking both PAPS2 and PAPS4 function are viable with wild-type leaf growth. Polyadenylation of SMALL AUXIN UP RNA (SAUR) mRNAs depends specifically on PAPS1 function. The resulting reduction in SAUR activity in paps1 mutants contributes to their reduced leaf growth, providing a causal link between polyadenylation of specific pre-mRNAs by a particular PAPS isoform and plant growth. Additionally, opposite effects of PAPS1 on leaf and flower growth reflect the different identities of these organs. The overgrowth of paps1 mutant petals is due to increased recruitment of founder cells into early organ primordia whereas the reduced leaf size is due to an ectopic pathogen response. This constitutive immune response leads to increased resistance to the biotrophic oomycete Hyaloperonospora arabidopsidis and reflects activation of the salicylic acid-independent signalling pathway downstream of ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immune responses are accompanied by intracellular redox changes. Consistent with this, the redox-status of the chloroplast is altered in paps1-1 mutants. The molecular effects of the paps1-1 mutation were analysed using an RNA sequencing approach that distinguishes between long- and short tailed mRNA. The results shown here suggest the existence of an additional layer of regulation in plants and possibly vertebrate gene expression, whereby the relative activities of canonical nuclear PAPS isoforms control de novo synthesized poly(A) tail length and hence expression of specific subsets of mRNAs. N2 - Polyadenylierung von prä-mRNAs ist entscheidend für den Export aus dem Zellkern, die Stabilität und die Translation der reifen mRNAs und dadurch für die Genexpression. Der Großteil der mRNAs wird durch sogenannte canonische Poly(A) Polymerasen (cPAPS) prozessiert. Die Genome von sowohl Wirbeltieren als auch Pflanzen kodieren mehr als eine Isoform dieser Enzyme, welche gleichzeitig in verschiedenen Geweben exprimiert werden. Es ist jedoch kein Beispiel bekannt, das zeigt, ob die verschiedenen Isoformen unterschiedliche Funktionen einnehmen bzw. verschiedene Untergruppen von mRNAs polyadenylieren. Diese Arbeit zeigt, dass drei canonische PAPS Isoformen in Arabidopsis thaliana aufgrund ihrer evolutionär unterschiedlichen C-terminalen Domänen spezialisierte Funktionen haben. Eine schwache Verlust-Mutation im PAPS1 Gen bewirkt eine Vergrößerung der Blütenorgane, während die Blattgröße vermindert ist. Eine starke Verlust-Mutation bewirkt zusätzlich einen Defekt der männlichen Keimzellen. Im Gegenzug dazu sind Mutanten des PAPS2 oder PAPS4 Gens gesund und zeigen ein normales Wachstum. Polyadenylierung von SMALL AUXIN UP RNA (SAUR) mRNAs hängt spezifisch von der Funktion von PAPS1 ab. Die daraus entstehende Reduzierung der SAUR Aktivität in den paps1 Mutanten trägt zur Verringerung der Blattgröße bei und stellt eine kausale Verbindung zwischen Polyadenylierung spezifischer mRNAs durch bestimmte PAPS Isoformen und Pflanzenwachstum dar. Zusätzlich spiegeln die unterschiedlichen Effekte von PAPS1 auf Blüten und Blätter die Identitäten dieser Organe wieder. Das übermäßige Wachstum der mutanten Petalen beruht auf einer erhöhten Anzahl an Gründer-Zellen im frühen Primordium, wohingegen die verminderte Blattgröße auf eine ektopische Pathogen Antwort zurückzuführen ist. Diese konstitutive Immunantwort bewirkt eine erhöhte Resistenz der Mutanten gegenüber dem biotrophen Oomyceten Hyaloperonospora arabidopsidis und reflektiert die Aktivierung des Salizylsäure unabhängigen Signalweges von ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immunantworten sind von Veränderungen des intrazellulären Redoxpotenzials gekennzeichnet. Damit übereinstimmend zeigen die Chloroplasten der paps1-1 Mutanten ein verändertes Redoxpotenzial. Zur genaueren Aufklärung der molekularen Effekte der paps1 1 mutation wurde eine RNA-Sequenzierungsmethode verwendet, die zwischen mRNAs mit langem oder kurzem Poly(A) Schwanz unterscheidet. Die Aktivitäten der verschiedenen canonischen PAPS Isoformen kontrollieren die Länge des neu synthetisierten poly(A) Schwanzes und damit die Expression spezifischer Untergruppen von mRNAs. Dadurch lassen die hier gezeigten Ergebnisse eine weitere Ebene der Genregulierung in Pflanzen, und möglicherweise auch in anderen Eukaryoten, vermuten. KW - Polyadenylierung KW - Pathogenantwort KW - Organgröße KW - polyadenylation KW - pathogen response KW - organ size Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72345 ER - TY - THES A1 - Treusch, Yvonne T1 - Leitliniengestützte Therapie von neuropsychiatrischen Symptomen bei Demenz BT - gegenwärtige Situationen der Leitlinienimplementierung mit Fokus auf nicht-pharmakologischen Behandlungsoptionen für Pflegeheimbewohnern mit Apathie Y1 - 2014 ER - TY - THES A1 - Trabant, Christoph T1 - Ultrafast photoinduced phase transitions in complex materials probed by time-resolved resonant soft x-ray diffraction T1 - Ultraschnelle lichtinduzierte Phasenübergänge in komplexen Materialien untersucht mit zeitaufgelöster resonanter Weichröntgenbeugung N2 - In processing and data storage mainly ferromagnetic (FM) materials are being used. Approaching physical limits, new concepts have to be found for faster, smaller switches, for higher data densities and more energy efficiency. Some of the discussed new concepts involve the material classes of correlated oxides and materials with antiferromagnetic coupling. Their applicability depends critically on their switching behavior, i.e., how fast and how energy efficient material properties can be manipulated. This thesis presents investigations of ultrafast non-equilibrium phase transitions on such new materials. In transition metal oxides (TMOs) the coupling of different degrees of freedom and resulting low energy excitation spectrum often result in spectacular changes of macroscopic properties (colossal magneto resistance, superconductivity, metal-to-insulator transitions) often accompanied by nanoscale order of spins, charges, orbital occupation and by lattice distortions, which make these material attractive. Magnetite served as a prototype for functional TMOs showing a metal-to-insulator-transition (MIT) at T = 123 K. By probing the charge and orbital order as well as the structure after an optical excitation we found that the electronic order and the structural distortion, characteristics of the insulating phase in thermal equilibrium, are destroyed within the experimental resolution of 300 fs. The MIT itself occurs on a 1.5 ps timescale. It shows that MITs in functional materials are several thousand times faster than switching processes in semiconductors. Recently ferrimagnetic and antiferromagnetic (AFM) materials have become interesting. It was shown in ferrimagnetic GdFeCo, that the transfer of angular momentum between two opposed FM subsystems with different time constants leads to a switching of the magnetization after laser pulse excitation. In addition it was theoretically predicted that demagnetization dynamics in AFM should occur faster than in FM materials as no net angular momentum has to be transferred out of the spin system. We investigated two different AFM materials in order to learn more about their ultrafast dynamics. In Ho, a metallic AFM below T ≈ 130 K, we found that the AFM Ho can not only be faster but also ten times more energy efficiently destroyed as order in FM comparable metals. In EuTe, an AFM semiconductor below T ≈ 10 K, we compared the loss of magnetization and laser-induced structural distortion in one and the same experiment. Our experiment shows that they are effectively disentangled. An exception is an ultrafast release of lattice dynamics, which we assign to the release of magnetostriction. The results presented here were obtained with time-resolved resonant soft x-ray diffraction at the Femtoslicing source of the Helmholtz-Zentrum Berlin and at the free-electron laser in Stanford (LCLS). In addition the development and setup of a new UHV-diffractometer for these experiments will be reported. N2 - In der Datenspeichertechnologie werden bisher hauptsächlich ferromagnetische Materialien eingesetzt. Da mit diesen aber physikalische Grenzen erreicht werden, werden neue Konzepte gesucht, um schnellere und kleinere Schalter, größere Datendichten und eine höherere Energieeffizienz zu erzeugen. Unter den diskutierten Materialklassen finden sich komplexen Übergangsmetalloxide und Materialien mit antiferromagnetischer Kopplung. Die Anwendbarkeit solcher Materialien hängt stark davon ab, wie schnell sich deren Eigenschaften verändern lassen und wieviel Energie dafür eingesetzt werden muss. Die vorliegende Arbeit beschäftigt sich mit ultraschnellen, Nicht-Gleichgewicht-Phasenübergängen genau in solchen Materialien. In Übergangsmetalloxiden führt die enge Kopplung zwischen den unterschiedlichen Freiheitsgraden zu einem effektiven niederenergetischen Anregungsspektrum. Diese Anregungen sind oft verknüpft mit spektakulären makroskopischen Eigenschaften, wie z.B. dem kolossalen Magnetowiderstand, Hochtemperatur-Supraleitung, Metall- Isolator-Übergang, die oft von nanoskaliger Ordnung von Spins, Ladungen, orbitaler Besetzung sowie Gitterverzerrungen begleitet sind. Dadurch werden diese Materialien interessant für Anwendbarkeit. Magnetit, ein Prototyp eines solchen funktionalen Materials zeigt einen Metall-Isolator-Übergang bei T = 123 K. Untersucht man die Ladungs- und orbitale Ordnung sowie die Struktur nach einer optischen Anregung, so findet man, dass die elektronische Struktur und Gitterverzerrung, die kennzeichnend für die Tieftemperaturphase sind, innerhalb der Zeitauflösung des Experiments von 300 fs zerstört wird. Der eigentliche Metall-Isolator-Übergang zeigt sich erst nach 1.5 ps. Die Ergebnisse zeigen, dass MITs in funktionalen Materialien bis zu tausend Mal schneller geschaltet werden können als in vorhandenen Halbleiter-Schaltern. Seit kurzem rücken auch ferrimagnetische und antiferromagnetische Materialen in den Fokus des Interesses. Es wurde im Ferrimagnet GdFeCo gezeigt, dass der Transfer von Drehimpuls zwischen zwei entgegengesetzten Subsystemen mit unterschiedlichen Zeitkonstanten zu einem Umschalten der Magnetisierung führt. Zudem wurde vorhergesagt, dass Demagnetisierungsdynamiken in antiferromagnetischen Materialien schneller ablaufen soll als in ferromagnetischen, da kein Drehimpuls aus dem Spinsystem abgeführt werden muss. Damit wir mehr über antiferromagnetische Dynamik erfahren haben wir zwei unterschiedliche Antiferromagneten untersucht, um sie mit den bekannten FM zu vergleichen. Im metallischen AFM Holmium fanden wir, dass die magnetische Ordnung schneller und zehnmal energieeffizienter zerstört werden kann als in vergleichbaren FM Metallen. In Europium-Tellurid, einem antiferromagnetischem Halbleiter, haben wir den Zerfall der magnetischen Ordnung im Hinblick auf Wechselwirkungen mit der Struktur untersucht. Wir fanden auf kurzen Zeitskalen eine eher entkoppelte Dynamik. Eine Ausnahme ist ein schneller Beitrag zur Gitterdynamik, den wir mit dem Wegfall von Magnetostriktion erklären. Die hier gezeigten Ergebnisse wurden mit Hilfe zeitaufgelöster resonanter weicher Röntgenbeugung an der Femtoslicing Strahlungsquelle des Helmholtz-Zentrums Berlin und am freien Elektronenlaser LCLS gemessen. Zusätzlich wird über die Entwicklung und den Bau eines UHV-Diffraktometers für diese Experimente berichtet. KW - Ultraschnell KW - Weichröntgenbeugung KW - nichtgleichgewichts Dynamik KW - Phasenübergänge KW - Antiferromagnetisch KW - Ultrafast KW - soft x-ray diffraction KW - photoinduced dynamics KW - phase transitions KW - antiferromagnetic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71377 ER - TY - THES A1 - Tinnefeld, Christian T1 - Building a columnar database on shared main memory-based storage BT - database operator placement in a shared main memory-based storage system that supports data access and code execution N2 - In the field of disk-based parallel database management systems exists a great variety of solutions based on a shared-storage or a shared-nothing architecture. In contrast, main memory-based parallel database management systems are dominated solely by the shared-nothing approach as it preserves the in-memory performance advantage by processing data locally on each server. We argue that this unilateral development is going to cease due to the combination of the following three trends: a) Nowadays network technology features remote direct memory access (RDMA) and narrows the performance gap between accessing main memory inside a server and of a remote server to and even below a single order of magnitude. b) Modern storage systems scale gracefully, are elastic, and provide high-availability. c) A modern storage system such as Stanford's RAMCloud even keeps all data resident in main memory. Exploiting these characteristics in the context of a main-memory parallel database management system is desirable. The advent of RDMA-enabled network technology makes the creation of a parallel main memory DBMS based on a shared-storage approach feasible. This thesis describes building a columnar database on shared main memory-based storage. The thesis discusses the resulting architecture (Part I), the implications on query processing (Part II), and presents an evaluation of the resulting solution in terms of performance, high-availability, and elasticity (Part III). In our architecture, we use Stanford's RAMCloud as shared-storage, and the self-designed and developed in-memory AnalyticsDB as relational query processor on top. AnalyticsDB encapsulates data access and operator execution via an interface which allows seamless switching between local and remote main memory, while RAMCloud provides not only storage capacity, but also processing power. Combining both aspects allows pushing-down the execution of database operators into the storage system. We describe how the columnar data processed by AnalyticsDB is mapped to RAMCloud's key-value data model and how the performance advantages of columnar data storage can be preserved. The combination of fast network technology and the possibility to execute database operators in the storage system opens the discussion for site selection. We construct a system model that allows the estimation of operator execution costs in terms of network transfer, data processed in memory, and wall time. This can be used for database operators that work on one relation at a time - such as a scan or materialize operation - to discuss the site selection problem (data pull vs. operator push). Since a database query translates to the execution of several database operators, it is possible that the optimal site selection varies per operator. For the execution of a database operator that works on two (or more) relations at a time, such as a join, the system model is enriched by additional factors such as the chosen algorithm (e.g. Grace- vs. Distributed Block Nested Loop Join vs. Cyclo-Join), the data partitioning of the respective relations, and their overlapping as well as the allowed resource allocation. We present an evaluation on a cluster with 60 nodes where all nodes are connected via RDMA-enabled network equipment. We show that query processing performance is about 2.4x slower if everything is done via the data pull operator execution strategy (i.e. RAMCloud is being used only for data access) and about 27% slower if operator execution is also supported inside RAMCloud (in comparison to operating only on main memory inside a server without any network communication at all). The fast-crash recovery feature of RAMCloud can be leveraged to provide high-availability, e.g. a server crash during query execution only delays the query response for about one second. Our solution is elastic in a way that it can adapt to changing workloads a) within seconds, b) without interruption of the ongoing query processing, and c) without manual intervention. N2 - Diese Arbeit beschreibt die Erstellung einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Motiviert wird diese Arbeit durch drei Faktoren. Erstens ist moderne Netzwerktechnologie mit “Remote Direct Memory Access” (RDMA) ausgestattet. Dies reduziert den Unterschied hinsichtlich Latenz und Durchsatz zwischen dem Speicherzugriff innerhalb eines Rechners und auf einen entfernten Rechner auf eine Größenordnung. Zweitens skalieren moderne Speichersysteme, sind elastisch und hochverfügbar. Drittens hält ein modernes Speichersystem wie Stanford's RAMCloud alle Daten im Hauptspeicher vor. Diese Eigenschaften im Kontext einer spalten-orientierten Datenbank zu nutzen ist erstrebenswert. Die Arbeit ist in drei Teile untergliedert. Der erste Teile beschreibt die Architektur einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Hierbei werden die im Rahmen dieser Arbeit entworfene und entwickelte Datenbank AnalyticsDB sowie Stanford's RAMCloud verwendet. Die Architektur beschreibt wie Datenzugriff und Operatorausführung gekapselt werden um nahtlos zwischen lokalem und entfernten Hauptspeicher wechseln zu können. Weiterhin wird die Ablage der nach einem relationalen Schema formatierten Daten von AnalyticsDB in RAMCloud behandelt, welches mit einem Schlüssel-Wertpaar Datenmodell operiert. Der zweite Teil fokussiert auf die Implikationen bei der Abarbeitung von Datenbankanfragen. Hier steht die Diskussion im Vordergrund wo (entweder in AnalyticsDB oder in RAMCloud) und mit welcher Parametrisierung einzelne Datenbankoperationen ausgeführt werden. Dafür werden passende Kostenmodelle vorgestellt, welche die Abbildung von Datenbankoperationen ermöglichen, die auf einer oder mehreren Relationen arbeiten. Der dritte Teil der Arbeit präsentiert eine Evaluierung auf einem Verbund von 60 Rechnern hinsichtlich der Leistungsfähigkeit, der Hochverfügbarkeit und der Elastizität vom System. T2 - Die Erstellung einer spaltenorientierten Datenbank auf einem verteilten, Hauptspeicher-basierenden Speichersystem KW - computer science KW - database technology KW - main memory computing KW - cloud computing KW - verteilte Datenbanken KW - Hauptspeicher Technologie KW - virtualisierte IT-Infrastruktur Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72063 ER - TY - THES A1 - Tietz, Marcel T1 - Europäisches Verwaltungsmanagement : Vergleich von Hauptstädten neuer und alter Mitgliedsstaaten der EU am Beispiel der Bürgerdienste T1 - European administrative management : comparison of capital cities of new and old member states of the EU using the example of citizen services N2 - Im Rahmen der Dissertation wird die Anwendung und Wirkung von Kernelementen des New Public Management (NPM) am Beispiel der Bürgerdienste der sechs europäischen Hauptstädte Berlin, Brüssel, Kopenhagen, Madrid, Prag und Warschau analysiert. Hierbei steht der Vergleich von Hauptstädten der MOE-Staaten mit Hauptstädten alter EU-Mitgliedsstaaten im Vordergrund. Es wird die folgende Forschungshypothese untersucht: Die Verwaltungen in den Hauptstädten der östlichen Mitgliedsstaaten der EU haben in Folge der grundsätzlichen gesellschaftlichen und politischen Umbrüche in den 1990er Jahren bedeutend mehr Kernelemente des NPM beim Neuaufbau ihrer öffentlichen Verwaltungen eingeführt. Durch den folgerichtigen Aufbau kundenorientierter und moderner Verwaltungen sowie der strikten Anwendung der Kernelemente des New Public Management arbeiten die Bürgerdienste in den Hauptstädten östlicher EU-Mitgliedsstaaten effizienter und wirkungsvoller als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten. Zur Überprüfung der Forschungshypothese werden die Vergleichsstädte zunächst den entsprechenden Rechts- und Verwaltungstraditionen (kontinentaleuropäisch deutsch, napoleonisch und skandinavisch) zugeordnet und bezüglich ihrer Ausgangslage zum Aufbau einer modernen Verwaltung (Westeuropäische Verwaltung, Wiedervereinigungsverwaltung und Transformations-verwaltung) kategorisiert. Im Anschluss werden die institutionellen Voraussetzungen hinterfragt, was die deskriptive Darstellung der Stadt- und Verwaltungsgeschichte sowie die Untersuchung von organisatorischen Strukturen der Bürgerdienste, die Anwendung der NPM-Instrumente als auch die Innen- und Außenperspektive des NPM umfasst. Es wird festgestellt, ob und in welcher Form die Bürgerdienste der Vergleichsstädte die Kernelemente des NPM anwenden. Im Anschluss werden die Vergleichsstädte bezüglich der Anwendung der Kernelemente miteinander verglichen, wobei der Fokus auf dem persönlichen Vertriebsweg und der Kundenorientierung liegt. Der folgende Teil der Dissertation befasst sich mit dem Output der Bürgerdienste, der auf operative Resultate untersucht und verglichen wird. Hierbei stellt sich insbesondere die Frage nach den Leistungsmengen und der Produktivität des Outputs. Es werden aber auch die Ergebnisse von Verwaltungsprozessen untersucht, insbesondere in Bezug auf die Kundenorientierung. Hierfür wird ein Effizienzvergleich der Bürgerdienste in den Vergleichsstädten anhand einer relativen Effizienzmessung und der Free Disposal Hull (FDH)-Methode nach Bouckaert durchgeführt. Es ist eine Konzentration auf populäre Dienstleistungen aus dem Portfolio der Bürgerdienste notwendig. Daher werden die vergleichbaren Dienstleistungen Melde-, Personalausweis-, Führerschein- und Reisepass-angelegenheiten unter Einbeziehung des Vollzeitäquivalents zur Berechnung der Effizienz der Bürgerdienste herangezogen. Hierfür werden Daten aus den Jahren 2009 bis 2011 genutzt, die teilweise aus verwaltungsinternen Datenbanken stammen. Anschließend wird der Versuch unternommen, den Outcome in die Effizienzanalyse der Bürgerdienste einfließen zu lassen. In diesem Zusammenhang wird die Anwendbarkeit von verschiedenen erweiterten Best-Practice-Verfahren und auch eine Erweiterung der relativen Effizienzmessung und der FDH-Methode geprüft. Als Gesamtfazit der Dissertation kann festgehalten werden, dass die Bürgerdienste in den untersuchten Hauptstädten der MOE-Staaten nicht mehr Kernelemente des NPM anwenden, als die Hauptstädte der westlichen Mitgliedsstaaten der EU. Im Gegenteil wendet Prag deutlich weniger NPM-Instrumente als andere Vergleichsstädte an, wohingegen Warschau zwar viele NPM-Instrumente anwendet, jedoch immer von einer westeuropäischen Vergleichsstadt übertroffen wird. Auch die Hypothese, dass die Bürgerdienste in den Hauptstädten der MOE-Staaten effizienter arbeiten als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten wurde durch die Dissertation entkräftet. Das Gegenteil ist der Fall, da Prag und Warschau im Rahmen des Effizienzvergleichs lediglich durchschnittliche oder schlechte Performances aufweisen. Die aufgestellte Hypothese ist durch die Forschungsergebnisse widerlegt, lediglich das gute Abschneiden der Vergleichsstadt Warschau bei der Anwendungsanalyse kann einen Teil der These im gewissen Umfang bestätigen. N2 - In the context of the thesis, the application and impact of core elements of the New Public Management (NPM) is analysed using the example of the Citizen Services of six European capital cities Berlin, Brussels, Copenhagen, Madrid, Prague and Warsaw. In this connection the comparison of the capital cities in the CEE countries with capital cities in the old EU Member States is foregrounded. The following research hypothesis is examined: In consequence of the fundamental social and political upheavals in the 1990s the administrations in the capital cities of the eastern EU Member States have introduced significantly more core elements of NPM during the reorganisation of their public administrations. Due to the consequent erection of customer-oriented and modern administrations and the strict application of core elements of the New Public Management, the Citizen Services in the capital cities of eastern EU Member States work more efficient and effective than comparable Citizen Services in the capital cities of western EU Member States. To survey the research hypothesis, the capital cities are initially assigned to the relevant legal and administrative traditions (Continental European German, Napoleonic and Scandinavian) and afterwards categorised with respect to their initial position to build up a modern administration (western European administration, reunion administration and transformation administration). Thereafter institutional requirements are questioned, which includes a descriptive presentation of urban and administrative history and the analyses of organisational structures of the Citizen Services, the application of NPM instruments as well as the internal and external perspectives of the NPM. It is concluded, whether and in what form the Citizen Services of the capital cities utilise the core elements of NPM. Following the capital cities are compared regarding the application of core elements, whereat the focus is on the personal channel of distribution and customer orientation. The following part of the thesis deals with the output of Citizen Services, which is examined and compared to operational results. This raises in particular the question of the activity quantity and the efficiency of the output. But there are also examines of the results of administrative processes, particularly in reference to customer orientation. Thus a comparison of efficiency of Citizen Services in the capital cities is performed, which is based on a relative measurement of efficiency and the Free Disposal Hull Method (FDH) according to Bouckaert. A focus on popular services from the portfolio of the Citizen Services is needed, wherefore the efficiency of the Citizen Services is calculated with the comparable services identity card, driving license and passport involving the full-time equivalent. Therefor data from the years 2009 to 2011 are used, which originate from internal administrative databases. Following an attempt is made to include the outcome in the analysis of efficiency of the Citizen Services. In this context, the applicability of various advanced best practice methods and an extension of the relative measurement of efficiency and the FDH method is verified. As an overall conclusion of the thesis can be stated that the Citizen Services in the investigated capital cities of the CEE countries do not apply more core elements of the NPM compared to the capital cities of the western EU Member States. In contrast Prague applies significantly less NPM instruments compared to other capital cities, whereas Warsaw applies many NPM instruments but is always exceeded by a western European capital city. The hypothesis that the Citizen Services in the capital cities of the CEE countries work more efficiently than comparable Citizen Services in the capital cities of the western EU Member States is also ruled by the thesis. The opposite is the case as Prague and Warsaw show only an average or poor performance in the context of the comparison of efficiency. The established hypothesis is disproved by the research results, only the good performance of the capital city of Warsaw in the analysis of application is able to confirm a part of the thesis to a certain extent. KW - New Public Management KW - Bürgerdienste KW - Effizienzanalyse KW - Kommunale Verwaltung KW - new public management KW - citizen services KW - analysis of efficiency KW - local government Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72171 ER - TY - THES A1 - Tian, Fang T1 - Vegetation and environmental changes on millennial, centennial and decadal time-scales in central Mongolia and their driving forces Y1 - 2014 ER - TY - THES A1 - Tetzner, Julia T1 - Stability and change in academic, social, and emotional development from early adolescence to young adulthood BT - the interplay with negative life events and protective factors Y1 - 2014 ER - TY - THES A1 - Tenenboim, Yehezkel T1 - Characterization of a Chlamydomonas protein involved in cell division and autophagy T1 - Charakterisierung eines an Zellteilung und Autophagie beteiligten Chlamydomonas-Proteins N2 - The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation. N2 - Die kontraktile Vakuole ist ein osmoregulatorisches Organell, das ausschließlich in Algen und Protisten vorkommt. Zusätzlich zu ihrer Rolle als Ausstoßer überflüßigen Wassers aus der Zelle heraus, stößt sie auch Ionen und andere Metaboliten aus, und trägt dabei zur metabolischen Homöostase der Zelle bei. Das Interesse an der kontraktilen Vakuole erstreckt sich über seine unmittelbare zelluläre Rolle hinaus. Die Funktion der kontraktilen Vakuole ist mit einigen grundsätzlichen zellulären Verfahren, wie Membrandynamik und Vesikelknospung und -fusion, verwandt; einige physiologische Verfahren in Tieren, zum Beispiel synaptische Neurotransmission und das Filtrieren des Blutes in den Nieren, sind mit der Funktion der Vakuole eng verwandt; und einige Pathogene—der Ursacher der Schlafkrankheit als Beispiel—besitzen kontraktile Vakuolen, die als Ziele von Medikamenten dienen könnten. Die grüne Alge Chlamydomonas reinhardtii verfügt über zwei Vakuolen. Sie sind die kleinsten bekannten in der Natur, und bleiben bisher verhältnismäßig unerforscht. Viele Gene, die in anderen Organismen als kontraktile-Vakuole-bezogen erwiesen wurden, haben Homologe in C. reinhardtii. Wir versuchten, diese Gene auszuschalten und den Einfluss auf die Vakuole zu beobachten. Die Ausschaltung eines unserer Gene, VMP1, verursachte starke, beachtliche Phänotype. Die Zellen zeigten gestörte Zytokinese und aberrante Zellformen. Die kontraktile Vakuole blieb jedoch verschont. Des Weiteren zeigten Mutantzellen einige Hinweise auf gestörte Autophagie. Einige wichtige Gene des Zellzyklus und der Autophagie waren unterexprimiert in Mutantzellen. Lipidomische Analyse zeigte mehrere bedeutsame Unterschiede zwischen Wildtyp und Mutant, die die Beobachtungen der gestörten Autophagie verstärkten. VMP1 ist ein singularisches Protein, mit Homologen in zähligen eukaryotischen Organismen (jedoch nicht in Pilzen), aber üblicherweise ohne Verwandte in den jeweiligen Genomen. Seit seiner Erstcharakterisierung 2002 wurde es mit etlichen zellulären Verfahren, wie Autophagie, programmiertem Zelltod, Sekretion, Zelladhäsion, und Biogenese der Organellen, assoziiert. Es wurde auch mit einigen menschlichen Krankheiten wie Diabetes, Pankreatitis, und einigen Arten von Krebs in Verbindung gebracht. Unsere Ergebnisse wiederholen einige Beobachtungen in anderen Organismen, zeigen dennoch zum ersten Mal eine Beteiligung von VMP1 an der Zellteilung. Die unterliegenden Mechanismen dieser Beteiligung in Chlamydomonas, sowie andere wichtige Aspekte, etwa die subzelluläre Lokalisierung von VMP1 und dessen Interaktionspartner, warten noch auf Aufklärung. KW - VMP1 KW - autophagy KW - cytokinesis KW - chlamydomonas Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70650 ER - TY - THES A1 - Takouna, Ibrahim T1 - Energy-efficient and performance-aware virtual machine management for cloud data centers T1 - Energieeffizientes und performancebewusstes Management virtueller Maschinen für Cloud Datenzentren N2 - Virtualisierte Cloud Datenzentren stellen nach Bedarf Ressourcen zur Verfügu-ng, ermöglichen agile Ressourcenbereitstellung und beherbergen heterogene Applikationen mit verschiedenen Anforderungen an Ressourcen. Solche Datenzentren verbrauchen enorme Mengen an Energie, was die Erhöhung der Betriebskosten, der Wärme innerhalb der Zentren und des Kohlendioxidausstoßes verursacht. Der Anstieg des Energieverbrauches kann durch ein ineffektives Ressourcenmanagement, das die ineffiziente Ressourcenausnutzung verursacht, entstehen. Die vorliegende Dissertation stellt detaillierte Modelle und neue Verfahren für virtualisiertes Ressourcenmanagement in Cloud Datenzentren vor. Die vorgestellten Verfahren ziehen das Service-Level-Agreement (SLA) und die Heterogenität der Auslastung bezüglich des Bedarfs an Speicherzugriffen und Kommunikationsmustern von Web- und HPC- (High Performance Computing) Applikationen in Betracht. Um die präsentierten Techniken zu evaluieren, verwenden wir Simulationen und echte Protokollierung der Auslastungen von Web- und HPC- Applikationen. Außerdem vergleichen wir unser Techniken und Verfahren mit anderen aktuellen Verfahren durch die Anwendung von verschiedenen Performance Metriken. Die Hauptbeiträge dieser Dissertation sind Folgendes: Ein Proaktives auf robuster Optimierung basierendes Ressourcenbereitstellungsverfahren. Dieses Verfahren erhöht die Fähigkeit der Hostes zur Verfüg-ungsstellung von mehr VMs. Gleichzeitig aber wird der unnötige Energieverbrauch minimiert. Zusätzlich mindert diese Technik unerwünschte Ände-rungen im Energiezustand des Servers. Die vorgestellte Technik nutzt einen auf Intervall basierenden Vorhersagealgorithmus zur Implementierung einer robusten Optimierung. Dabei werden unsichere Anforderungen in Betracht gezogen. Ein adaptives und auf Intervall basierendes Verfahren zur Vorhersage des Arbeitsaufkommens mit hohen, in kürzer Zeit auftretenden Schwankungen. Die Intervall basierende Vorhersage ist implementiert in der Standard Abweichung Variante und in der Median absoluter Abweichung Variante. Die Intervall-Änderungen basieren auf einem adaptiven Vertrauensfenster um die Schwankungen des Arbeitsaufkommens zu bewältigen. Eine robuste VM Zusammenlegung für ein effizientes Energie und Performance Management. Dies ermöglicht die gegenseitige Abhängigkeit zwischen der Energie und der Performance zu minimieren. Unser Verfahren reduziert die Anzahl der VM-Migrationen im Vergleich mit den neu vor kurzem vorgestellten Verfahren. Dies trägt auch zur Reduzierung des durch das Netzwerk verursachten Energieverbrauches. Außerdem reduziert dieses Verfahren SLA-Verletzungen und die Anzahl von Änderungen an Energiezus-tänden. Ein generisches Modell für das Netzwerk eines Datenzentrums um die verzö-gerte Kommunikation und ihre Auswirkung auf die VM Performance und auf die Netzwerkenergie zu simulieren. Außerdem wird ein generisches Modell für ein Memory-Bus des Servers vorgestellt. Dieses Modell beinhaltet auch Modelle für die Latenzzeit und den Energieverbrauch für verschiedene Memory Frequenzen. Dies erlaubt eine Simulation der Memory Verzögerung und ihre Auswirkung auf die VM-Performance und auf den Memory Energieverbrauch. Kommunikation bewusste und Energie effiziente Zusammenlegung für parallele Applikationen um die dynamische Entdeckung von Kommunikationsmustern und das Umplanen von VMs zu ermöglichen. Das Umplanen von VMs benutzt eine auf den entdeckten Kommunikationsmustern basierende Migration. Eine neue Technik zur Entdeckung von dynamischen Mustern ist implementiert. Sie basiert auf der Signal Verarbeitung des Netzwerks von VMs, anstatt die Informationen des virtuellen Umstellung der Hosts oder der Initiierung der VMs zu nutzen. Das Ergebnis zeigt, dass unsere Methode die durchschnittliche Anwendung des Netzwerks reduziert und aufgrund der Reduzierung der aktiven Umstellungen Energie gespart. Außerdem bietet sie eine bessere VM Performance im Vergleich zu der CPU-basierten Platzierung. Memory bewusste VM Zusammenlegung für unabhängige VMs. Sie nutzt die Vielfalt des VMs Memory Zuganges um die Anwendung vom Memory-Bus der Hosts zu balancieren. Die vorgestellte Technik, Memory-Bus Load Balancing (MLB), verteilt die VMs reaktiv neu im Bezug auf ihre Anwendung vom Memory-Bus. Sie nutzt die VM Migration um die Performance des gesamtem Systems zu verbessern. Außerdem sind die dynamische Spannung, die Frequenz Skalierung des Memory und die MLB Methode kombiniert um ein besseres Energiesparen zu leisten. N2 - Virtualized cloud data centers provide on-demand resources, enable agile resource provisioning, and host heterogeneous applications with different resource requirements. These data centers consume enormous amounts of energy, increasing operational expenses, inducing high thermal inside data centers, and raising carbon dioxide emissions. The increase in energy consumption can result from ineffective resource management that causes inefficient resource utilization. This dissertation presents detailed models and novel techniques and algorithms for virtual resource management in cloud data centers. The proposed techniques take into account Service Level Agreements (SLAs) and workload heterogeneity in terms of memory access demand and communication patterns of web applications and High Performance Computing (HPC) applications. To evaluate our proposed techniques, we use simulation and real workload traces of web applications and HPC applications and compare our techniques against the other recently proposed techniques using several performance metrics. The major contributions of this dissertation are the following: proactive resource provisioning technique based on robust optimization to increase the hosts' availability for hosting new VMs while minimizing the idle energy consumption. Additionally, this technique mitigates undesirable changes in the power state of the hosts by which the hosts' reliability can be enhanced in avoiding failure during a power state change. The proposed technique exploits the range-based prediction algorithm for implementing robust optimization, taking into consideration the uncertainty of demand. An adaptive range-based prediction for predicting workload with high fluctuations in the short-term. The range prediction is implemented in two ways: standard deviation and median absolute deviation. The range is changed based on an adaptive confidence window to cope with the workload fluctuations. A robust VM consolidation for efficient energy and performance management to achieve equilibrium between energy and performance trade-offs. Our technique reduces the number of VM migrations compared to recently proposed techniques. This also contributes to a reduction in energy consumption by the network infrastructure. Additionally, our technique reduces SLA violations and the number of power state changes. A generic model for the network of a data center to simulate the communication delay and its impact on VM performance, as well as network energy consumption. In addition, a generic model for a memory-bus of a server, including latency and energy consumption models for different memory frequencies. This allows simulating the memory delay and its influence on VM performance, as well as memory energy consumption. Communication-aware and energy-efficient consolidation for parallel applications to enable the dynamic discovery of communication patterns and reschedule VMs using migration based on the determined communication patterns. A novel dynamic pattern discovery technique is implemented, based on signal processing of network utilization of VMs instead of using the information from the hosts' virtual switches or initiation from VMs. The result shows that our proposed approach reduces the network's average utilization, achieves energy savings due to reducing the number of active switches, and provides better VM performance compared to CPU-based placement. Memory-aware VM consolidation for independent VMs, which exploits the diversity of VMs' memory access to balance memory-bus utilization of hosts. The proposed technique, Memory-bus Load Balancing (MLB), reactively redistributes VMs according to their utilization of a memory-bus using VM migration to improve the performance of the overall system. Furthermore, Dynamic Voltage and Frequency Scaling (DVFS) of the memory and the proposed MLB technique are combined to achieve better energy savings. KW - Energieeffizienz KW - Cloud Datenzentren KW - Ressourcenmanagement KW - dynamische Umsortierung KW - energy efficiency KW - cloud datacenter KW - resource management KW - dynamic consolidation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72399 ER - TY - THES A1 - Supaporn, Worakrit T1 - Categorical equivalence of clones Y1 - 2014 ER - TY - THES A1 - Stutz, Franziska T1 - Reading motivation, reading amount, and reading comprehension in the early elementary years Y1 - 2014 ER - TY - THES A1 - Strauß, Jens T1 - Organic carbon in ice-rich permafrost T1 - Organischer Kohlenstoff in eisreichen Permafrostablagerungen BT - characteristics, quantity, and availability BT - stoffliche Charakteristik, Bilanzierung und Verfügbarkeit N2 - Permafrost, defined as ground that is frozen for at least two consecutive years, is a distinct feature of the terrestrial unglaciated Arctic. It covers approximately one quarter of the land area of the Northern Hemisphere (23,000,000 km²). Arctic landscapes, especially those underlain by permafrost, are threatened by climate warming and may degrade in different ways, including active layer deepening, thermal erosion, and development of rapid thaw features. In Siberian and Alaskan late Pleistocene ice-rich Yedoma permafrost, rapid and deep thaw processes (called thermokarst) can mobilize deep organic carbon (below 3 m depth) by surface subsidence due to loss of ground ice. Increased permafrost thaw could cause a feedback loop of global significance if its stored frozen organic carbon is reintroduced into the active carbon cycle as greenhouse gases, which accelerate warming and inducing more permafrost thaw and carbon release. To assess this concern, the major objective of the thesis was to enhance the understanding of the origin of Yedoma as well as to assess the associated organic carbon pool size and carbon quality (concerning degradability). The key research questions were: - How did Yedoma deposits accumulate? - How much organic carbon is stored in the Yedoma region? - What is the susceptibility of the Yedoma region's carbon for future decomposition? To address these three research questions, an interdisciplinary approach, including detailed field studies and sampling in Siberia and Alaska as well as methods of sedimentology, organic biogeochemistry, remote sensing, statistical analyses, and computational modeling were applied. To provide a panarctic context, this thesis additionally includes results both from a newly compiled northern circumpolar carbon database and from a model assessment of carbon fluxes in a warming Arctic. The Yedoma samples show a homogeneous grain-size composition. All samples were poorly sorted with a multi-modal grain-size distribution, indicating various (re-) transport processes. This contradicts the popular pure loess deposition hypothesis for the origin of Yedoma permafrost. The absence of large-scale grinding processes via glaciers and ice sheets in northeast Siberian lowlands, processes which are necessary to create loess as material source, suggests the polygenetic origin of Yedoma deposits. Based on the largest available data set of the key parameters, including organic carbon content, bulk density, ground ice content, and deposit volume (thickness and coverage) from Siberian and Alaskan study sites, this thesis further shows that deep frozen organic carbon in the Yedoma region consists of two distinct major reservoirs, Yedoma deposits and thermokarst deposits (formed in thaw-lake basins). Yedoma deposits contain ~80 Gt and thermokarst deposits ~130 Gt organic carbon, or a total of ~210 Gt. Depending on the approach used for calculating uncertainty, the range for the total Yedoma region carbon store is ±75 % and ±20 % for conservative single and multiple bootstrapping calculations, respectively. Despite the fact that these findings reduce the Yedoma region carbon pool by nearly a factor of two compared to previous estimates, this frozen organic carbon is still capable of inducing a permafrost carbon feedback to climate warming. The complete northern circumpolar permafrost region contains between 1100 and 1500 Gt organic carbon, of which ~60 % is perennially frozen and decoupled from the short-term carbon cycle. When thawed and reintroduced into the active carbon cycle, the organic matter qualities become relevant. Furthermore, results from investigations into Yedoma and thermokarst organic matter quality studies showed that Yedoma and thermokarst organic matter exhibit no depth-dependent quality trend. This is evidence that after freezing, the ancient organic matter is preserved in a state of constant quality. The applied alkane and fatty-acid-based biomarker proxies including the carbon-preference and the higher-land-plant-fatty-acid indices show a broad range of organic matter quality and thus no significantly different qualities of the organic matter stored in thermokarst deposits compared to Yedoma deposits. This lack of quality differences shows that the organic matter biodegradability depends on different decomposition trajectories and the previous decomposition/incorporation history. Finally, the fate of the organic matter has been assessed by implementing deep carbon pools and thermokarst processes in a permafrost carbon model. Under various warming scenarios for the northern circumpolar permafrost region, model results show a carbon release from permafrost regions of up to ~140 Gt and ~310 Gt by the years 2100 and 2300, respectively. The additional warming caused by the carbon release from newly-thawed permafrost contributes 0.03 to 0.14°C by the year 2100. The model simulations predict that a further increase by the 23rd century will add 0.4°C to global mean surface air temperatures. In conclusion, Yedoma deposit formation during the late Pleistocene was dominated by water-related (alluvial/fluvial/lacustrine) as well as aeolian processes under periglacial conditions. The circumarctic permafrost region, including the Yedoma region, contains a substantial amount of currently frozen organic carbon. The carbon of the Yedoma region is well-preserved and therefore available for decomposition after thaw. A missing quality-depth trend shows that permafrost preserves the quality of ancient organic matter. When the organic matter is mobilized by deep degradation processes, the northern permafrost region may add up to 0.4°C to the global warming by the year 2300. N2 - Permafrost, definiert als mehr als zwei aufeinander folgende Jahre gefrorenes Bodenmaterial, ist eines der prägenden Merkmale der unvergletscherten arktischen Landgebiete. Verursacht durch extrem kalte Wintertemperaturen und geringe Schneebedeckung nimmt das Permafrost-Verbreitungsgebiet mit ~23.000.000 km² rund ein Viertel der Landfläche der Nordhemisphäre ein. Von Permafrost unterlagerte arktische Landschaften sind besonders anfällig hinsichtlich einer Erwärmung des Klimas. Verglichen mit der globalen Mitteltemperatur prognostizieren Klimamodelle für die Arktis einen doppelt so starken Anstieg der Temperatur. In einer sich erwärmenden Arktis bewirken Störungen des thermisch-hydrologischen Gleichgewichts eine Degradation von Permafrost und Veränderungen des Oberflächenreliefs. Diese Störungen können zum Beispiel zu einer Vertiefung der saisonalen Auftauschicht, zu thermisch bedingter Erosion sowie zu schneller Oberflächenabsenkung und Thermokarst führen. Im Verbreitungsgebiet der spätpleistozänen eisreichen Permafrost-Ablagerungen Sibiriens und Alaskas, bezeichnet als Yedoma, können Thermokarstprozesse auch mehr als 3 m tiefe organischen Kohlenstoffspeicher verfügbar machen, wenn durch schmelzendes Grundeis und Schmelzwasserdrainage die Oberfläche abgesenkt wird. So kann das Tauen von Permafrost eine globale Bedeutung entwickeln, indem vorher eingefrorener Kohlenstoff wieder dem aktiven Kohlenstoffkreislauf zugeführt wird. Dies kann durch Treibhausgasfreisetzung aus Permafrost zu einer sich selbst verstärkenden weiteren Erwärmung und somit zu fortschreitendem Tauen mit weiterer Kohlenstofffreisetzung führen. Diesen Prozess nennt man Permafrost-Kohlenstoff Rückkopplung. Um das Verständnis der Permafrostkohlenstoffdynamik grundlegend zu verbessern, wurde in dieser Doktorarbeit die Entstehung der Yedoma-Ablagerungen eingeschlossen des darin - Wie wurden die Yedoma-Sedimente abgelagert? - Wie viel Kohlenstoff ist in der Yedoma Region gespeichert? - Wie ist die Anfälligkeit dieses Kohlenstoffs für eine Degradation in der Zukunft? Um die oben genannten drei Forschungsfragen zu beantworten, wurde ein interdisziplinärer Forschungsansatz gewählt. In Sibirien und Alaska wurden detaillierte Felduntersuchungen durchgeführt und Methoden der Sedimentologie, der organischen Biogeochemie, der Fernerkundung sowie der statistischen Analyse und computergestützten Modellierung angewendet. Um diese Ergebnisse in den panarktische Kontext zu setzen, enthält diese Doktorarbeit ebenfalls Ergebnisse einer Studie, welche auf Grundlage einer neu zusammengestellten Datenbank den gesamten Kohlenstoff des arktischen Permafrosts abschätzt. Eine Modellierungsstudie ergänzt die Arbeit bezüglich einer Abschätzung der Kohlenstoffflüsse der Permafrostregion und deren Einfluss auf die globale Erwärmung. Die Ergebnisse zur Yedoma-Entstehung zeigen, dass die Korngrößenverteilungen dieser Ablagerungen, tiefenabhängig betrachtet, sehr homogen sind. Alle gemessenen Korngrößenverteilungen sind schlecht sortiert. Dies deutet auf eine Vielzahl von Transportprozessen hin und widerspricht der populären Hypothese einer reinen Löß-Ablagerung. Interpretiert im Kontext mit der Abwesenheit von Gletschern sowie Eisschilden, als Ausgangsgebiete von Löß-Ablagerungen, in den sibirischen Tiefländern des Spätpleistozäns, zeigt diese Arbeit, dass Yedoma-Ablagerungen polygenetischen Ursprungs sind. Basierend auf dem größten verfügbaren Datensatz der Schlüsselparameter Kohlenstoffgehalt, Lagerungsdichte, Grundeis und Volumen der Ablagerungen von über 20 Untersuchungsgebieten in Sibirien und Alaska zeigt diese Arbeit mit Yedoma- und Thermokarstablagerungen zwei wesentliche Kohlenstoffspeicher der Yedoma Region auf. Yedoma-Ablagerungen enthalten ~80 Gt und Thermokarstablagerungen ~130 Gt organischen Kohlenstoffs, was einer Gesamtmenge von ~210 Gt organischen Kohlenstoffs entspricht. Abhängig vom gewählten Ansatz der Fehlerberechnung liegt der Unsicherheitsbereich dieser Quantitätsabschätzung bei ±75 % (einfaches Bootstrapping) oder ±20 % (wiederholtes Bootstrapping). Obwohl diese Zahlen die bisherigen Berechnungen des Yedoma-Region-Kohlenstoffspeichers vorhergehender Studien halbieren, stellen 210 Gt organischen Kohlenstoffs noch immer einen großen Kohlenstoffspeicher dar, der eine positive Rückkopplung zur globalen Klimaerwärmung bewirken könnte. Die gesamte Permafrostregion beinhaltet zwischen 1100 und 1500 Gt Kohlenstoff, wovon ~60 % dauerhaft gefroren und somit dem derzeitigen Kohlenstoffkreislauf entzogen sind. Wenn dieser Kohlenstoff freigesetzt wird, ist ein weiterer Faktor, die Kohlenstoffqualität, relevant. Die Untersuchungen zur Kohlenstoffqualität zeigen keinen tiefenabhängigen Trend in Yedoma- und Thermokarstablagerungen. Dies belegt, dass nach dem Einfrieren die fossile organische Substanz konserviert wurde. Die genutzten Biomarkerdaten, z.B. der 'carbon preference' Index und der 'higher land plant fatty acid' Index zeigen sowohl für Yedoma- als auch für Thermokarstablagerungen keine signifikanten Unterschiede der Kohlenstoffqualität. Das bedeutet, dass der Kohlenstoffabbau nach dem Auftauen von unterschiedlichen Faktoren abhängig ist. Dazu gehören verschiedene Abbauwege oder schon vor dem Einfrieren geschehener Abbau. Um die Bedeutung des aufgetauten Kohlenstoffs abzuschätzen, wurden Thermokarstprozesse in ein Permafrost-Kohlenstoff-Modell einbezogen. Unter Berücksichtigung verschiedener Erwärmungsszenarien könnte die zirkumarktische Permafrostregion bis zum Jahr 2100 ~140 Gt Kohlenstoff und bis 2300 ~310 Gt in die Atmosphäre freisetzen. Dies entspricht einer Erwärmung der mittleren globalen Oberflächentemperatur von ~0,03 bis ~0,14°C bis 2100 und bis zu ~0,4°C bis 2300. Zusammenfassend stellt diese Dissertation heraus, dass die Yedoma-Ablagerungen während des Spätpleistozäns durch eine Kombination verschiedener aquatischer (alluviale, fluviale, lakustrine) sowie äolische Prozesse entstanden sind. Die zirkumarktische Region, inklusive der Yedoma Region, beinhaltet eine erhebliche Menge an derzeit eingefrorenem organischen Kohlenstoffs. Dieser Kohlenstoff ist gut erhalten und damit nach dem Auftauen für den mikrobiellen Abbau verfügbar. Eine fehlende Tiefenabhängigkeit der Kohlenstoffqualität zeigt, dass Permafrost die Qualität zum Einfrierzeitpunkt bewahrt. Wenn auch der tiefliegende organische Kohlenstoff durch Thermokarstprozesse verfügbar gemacht wird, kann die Permafrostregion bis zum Jahr 2300 bis zu 0,4°C zur mittleren globalen Oberflächentemperatur beitragen. KW - permafrost KW - Arctic KW - climate change KW - vulnerability KW - Dauerfrostboden KW - Arktis KW - Klimawandel KW - Vulnerabilität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75236 ER - TY - THES A1 - Steyrleuthner, Robert T1 - Korrelation von Struktur, optischen Eigenschaften und Ladungstransport in einem konjugierten Naphthalindiimid-Bithiophen Copolymer mit herausragender Elektronenmobilität T1 - Correlation of structure, optical properties and charge transport in a conjugated naphtalendiimide-bithiophene copolymer with outstanding electron mobility N2 - Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind. N2 - Organic semiconductors are in the focus of recent research and technological development (eg. for organic light-emitting diodes and solar cells) due to their specific and outstanding material properties. The strong conformational freedom of conjugated polymer chains usually leads to a large number of possible geometric arrangements while weak intermolecular interactions additionally lead to poor structural order in the solid state. At the same time the morphology of those systems has direct influence on the electronic structure of the organic semiconductor which is accompanied by a significant reduction of the charge carrier mobility in contrast to their inorganic counterparts. In that way the transport of charges within the semiconductor represents one of the main limiting factors regarding the performance and efficiency of functional organic devices. In 2009 Facchetti and coworkers presented a novel conjugated donor/acceptor copolymer based on naphthalene diimide and bithiophene [P(NDI2OD‑T2)] which was characterized by an outstanding charge carrier mobility. In this work the mobility of electrons and holes in the bulk of P(NDI2OD‑T2) is determined by single carrier devices and the time-of-flight technique. The results imply a low energetic disorder in these polymer layers. While the material was initially expected to be mainly amorphous, a detailed study of the photophysical properties of P(NDI2OD‑T2) shows that precursors of supramolecular assemblies (aggregates) are already formed in polymer solution. Quantum-chemical calculations support the occurring optical changes. NMR spectroscopy was applied to independently prove the formation of chain aggregates in commonly used organic solvents. The investigation of P(NDI2OD‑T2) solutions by analytical ultracentrifugation implies that aggregation mainly proceeds within single polymer chains by reduction of the hydrodynamic radius. To understand the influence of the chemical structure, pre-aggregation and crystal packing of conventional regioregular P(NDI2OD-T2) on the charge transport, the corresponding regioirregular polymer RI-P(NDI2OD-T2) was synthesized. By combining optical, X-ray, and transmission electron microscopy data, a quantitatively characterization of the aggregation, crystallization, and backbone orientation of all of the polymer films was possible, which was then correlated to the electron mobilities in electron-only diodes. The anisotropy of the charge transport along the different crystallographic directions is demonstrated and how the mobility depends on π-stacking but is insensitive to the degree or coherence of lamellar stacking. The comparison between the regioregular and regioirregular polymers also shows how the use of large planar functional groups leads to improved charge transport, with mobilities that are less affected by chemical and structural disorder with respect to classic semicrystalline polymers such as poly(3-hexylthiophene). KW - organische Halbleiter KW - Ladungstransport KW - Solarzellen KW - Polymere KW - Photophysik KW - organic semiconductor KW - charge transport KW - solar cells KW - polymers KW - photo physics Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71413 ER - TY - THES A1 - Steinhaus, Sebastian Peter T1 - Constructing quantum spacetime T1 - Konstruktion der Quantenraumzeit BT - relation to classical gravity BT - Relation zur klassischen Gravitation N2 - Despite remarkable progress made in the past century, which has revolutionized our understanding of the universe, there are numerous open questions left in theoretical physics. Particularly important is the fact that the theories describing the fundamental interactions of nature are incompatible. Einstein's theory of general relative describes gravity as a dynamical spacetime, which is curved by matter and whose curvature determines the motion of matter. On the other hand we have quantum field theory, in form of the standard model of particle physics, where particles interact via the remaining interactions - electromagnetic, weak and strong interaction - on a flat, static spacetime without gravity. A theory of quantum gravity is hoped to cure this incompatibility by heuristically replacing classical spacetime by quantum spacetime'. Several approaches exist attempting to define such a theory with differing underlying premises and ideas, where it is not clear which is to be preferred. Yet a minimal requirement is the compatibility with the classical theory, they attempt to generalize. Interestingly many of these models rely on discrete structures in their definition or postulate discreteness of spacetime to be fundamental. Besides the direct advantages discretisations provide, e.g. permitting numerical simulations, they come with serious caveats requiring thorough investigation: In general discretisations break fundamental diffeomorphism symmetry of gravity and are generically not unique. Both complicates establishing the connection to the classical continuum theory. The main focus of this thesis lies in the investigation of this relation for spin foam models. This is done on different levels of the discretisation / triangulation, ranging from few simplices up to the continuum limit. In the regime of very few simplices we confirm and deepen the connection of spin foam models to discrete gravity. Moreover, we discuss dynamical, e.g. diffeomorphism invariance in the discrete, to fix the ambiguities of the models. In order to satisfy these conditions, the discrete models have to be improved in a renormalisation procedure, which also allows us to study their continuum dynamics. Applied to simplified spin foam models, we uncover a rich, non--trivial fixed point structure, which we summarize in a phase diagram. Inspired by these methods, we propose a method to consistently construct the continuum theory, which comes with a unique vacuum state. N2 - Trotz bemerkenswerter Fortschritte im vergangenen Jahrhundert, die unser Verständnis des Universums revolutioniert haben, gibt es noch zahlreiche ungeklärte Fragen in der theoretischen Physik. Besondere Bedeutung kommt der Tatsache zu, dass die Theorien, welche die fundamentalen Wechselwirkungen der Natur beschreiben, inkompatibel sind. Nach Einsteins allgemeiner Relativitätstheorie wird die Gravitation durch eine dynamische Raumzeit dargestellt, die von Materie gekrümmt wird und ihrerseits durch die Krümmung die Bewegung der Materie bestimmt. Dem gegenüber steht die Quantenfeldtheorie, die die verbliebenen Wechselwirkungen - elektromagnetische, schwache und starke Wechselwirkung - im Standardmodell der Teilchenphysik beschreibt, in dem Teilchen auf einer statischen Raumzeit -- ohne Gravitation -- miteinander interagieren. Die Hoffnung ist, dass eine Theorie der Quantengravitation diese Inkompatibilität beheben kann, indem, heuristisch, die klassische Raumzeit durch eine 'Quantenraumzeit' ersetzt wird. Es gibt zahlreiche Ansätze eine solche Theorie zu definieren, die auf unterschiedlichen Prämissen und Ideen beruhen, wobei a priori nicht klar ist, welche zu bevorzugen sind. Eine Minimalanforderung an diese Theorien ist Kompatibilität mit der klassischen Theorie, die sie verallgemeinern sollen. Interessanterweise basieren zahlreiche Modelle in ihrer Definition auf Diskretisierungen oder postulieren eine fundamentale Diskretheit der Raumzeit. Neben den unmittelbaren Vorteilen, die Diskretisierungen bieten, z.B. das Ermöglichen numerischer Simulationen, gibt es auch gravierende Nachteile, die einer ausführlichen Untersuchung bedürfen: Im Allgemeinen brechen Diskretisierungen die fundamentale Diffeomorphismensymmetrie der Gravitation und sind in der Regel nicht eindeutig definiert. Beides erschwert die Wiederherstellung der Verbindung zur klassischen, kontinuierlichen Theorie. Das Hauptaugenmerk dieser Doktorarbeit liegt darin diese Verbindung insbesondere für Spin-Schaum-Modelle (spin foam models) zu untersuchen. Dies geschieht auf sehr verschiedenen Ebenen der Diskretisierung / Triangulierung, angefangen bei wenigen Simplizes bis hin zum Kontinuumslimes. Im Regime weniger Simplizes wird die bekannte Verbindung von Spin--Schaum--Modellen zu diskreter Gravitation bestätigt und vertieft. Außerdem diskutieren wir dynamische Prinzipien, z.B. Diffeomorphismeninvarianz im Diskreten, um die Ambiguitäten der Modelle zu fixieren. Um diese Bedingungen zu erfüllen, müssen die diskreten Modelle durch Renormierungsverfahren verbessert werden, wodurch wir auch ihre Kontinuumsdynamik untersuchen können. Angewandt auf vereinfachte Spin-Schaum-Modelle finden wir eine reichhaltige, nicht-triviale Fixpunkt-Struktur, die wir in einem Phasendiagramm zusammenfassen. Inspiriert von diesen Methoden schlagen wir zu guter Letzt eine konsistente Konstruktionsmethode für die Kontinuumstheorie vor, die einen eindeutigen Vakuumszustand definiert. KW - Quantengravitation KW - Spin-Schaum-Modelle KW - Regge Kalkül KW - Renormierung KW - Verfeinerungslimes KW - quantum gravity KW - spin foams KW - regge calculus KW - renormalization and refinement limit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72558 ER - TY - THES A1 - Steinert, Bastian T1 - Built-in recovery support for explorative programming T1 - Eingebaute Unterstützung für Wiederherstellungsbedürfnisse für unstrukturierte ergebnisoffene Programmieraufgaben BT - preserving immediate access to static and dynamic information of intermediate development states BT - Erhaltung des unmittelbaren Zugriffs auf statische und dynamische Informationen von Entwicklungszwischenständen N2 - This work introduces concepts and corresponding tool support to enable a complementary approach in dealing with recovery. Programmers need to recover a development state, or a part thereof, when previously made changes reveal undesired implications. However, when the need arises suddenly and unexpectedly, recovery often involves expensive and tedious work. To avoid tedious work, literature recommends keeping away from unexpected recovery demands by following a structured and disciplined approach, which consists of the application of various best practices including working only on one thing at a time, performing small steps, as well as making proper use of versioning and testing tools. However, the attempt to avoid unexpected recovery is both time-consuming and error-prone. On the one hand, it requires disproportionate effort to minimize the risk of unexpected situations. On the other hand, applying recommended practices selectively, which saves time, can hardly avoid recovery. In addition, the constant need for foresight and self-control has unfavorable implications. It is exhaustive and impedes creative problem solving. This work proposes to make recovery fast and easy and introduces corresponding support called CoExist. Such dedicated support turns situations of unanticipated recovery from tedious experiences into pleasant ones. It makes recovery fast and easy to accomplish, even if explicit commits are unavailable or tests have been ignored for some time. When mistakes and unexpected insights are no longer associated with tedious corrective actions, programmers are encouraged to change source code as a means to reason about it, as opposed to making changes only after structuring and evaluating them mentally. This work further reports on an implementation of the proposed tool support in the Squeak/Smalltalk development environment. The development of the tools has been accompanied by regular performance and usability tests. In addition, this work investigates whether the proposed tools affect programmers’ performance. In a controlled lab study, 22 participants improved the design of two different applications. Using a repeated measurement setup, the study examined the effect of providing CoExist on programming performance. The result of analyzing 88 hours of programming suggests that built-in recovery support as provided with CoExist positively has a positive effect on programming performance in explorative programming tasks. N2 - Diese Arbeit präsentiert Konzepte und die zugehörige Werkzeugunterstützung um einen komplementären Umgang mit Wiederherstellungsbedürfnissen zu ermöglichen. Programmierer haben Bedarf zur Wiederherstellung eines früheren Entwicklungszustandes oder Teils davon, wenn ihre Änderungen ungewünschte Implikationen aufzeigen. Wenn dieser Bedarf plötzlich und unerwartet auftritt, dann ist die notwendige Wiederherstellungsarbeit häufig mühsam und aufwendig. Zur Vermeidung mühsamer Arbeit empfiehlt die Literatur die Vermeidung von unerwarteten Wiederherstellungsbedürfnissen durch einen strukturierten und disziplinierten Programmieransatz, welcher die Verwendung verschiedener bewährter Praktiken vorsieht. Diese Praktiken sind zum Beispiel: nur an einer Sache gleichzeitig zu arbeiten, immer nur kleine Schritte auszuführen, aber auch der sachgemäße Einsatz von Versionskontroll- und Testwerkzeugen. Jedoch ist der Versuch des Abwendens unerwarteter Wiederherstellungsbedürfnisse sowohl zeitintensiv als auch fehleranfällig. Einerseits erfordert es unverhältnismäßig hohen Aufwand, das Risiko des Eintretens unerwarteter Situationen auf ein Minimum zu reduzieren. Andererseits ist eine zeitsparende selektive Ausführung der empfohlenen Praktiken kaum hinreichend, um Wiederherstellungssituationen zu vermeiden. Zudem bringt die ständige Notwendigkeit an Voraussicht und Selbstkontrolle Nachteile mit sich. Dies ist ermüdend und erschwert das kreative Problemlösen. Diese Arbeit schlägt vor, Wiederherstellungsaufgaben zu vereinfachen und beschleunigen, und stellt entsprechende Werkzeugunterstützung namens CoExist vor. Solche zielgerichtete Werkzeugunterstützung macht aus unvorhergesehenen mühsamen Wiederherstellungssituationen eine konstruktive Erfahrung. Damit ist Wiederherstellung auch dann leicht und schnell durchzuführen, wenn explizit gespeicherte Zwischenstände fehlen oder die Tests für einige Zeit ignoriert wurden. Wenn Fehler und unerwartete Ein- sichten nicht länger mit mühsamen Schadensersatz verbunden sind, fühlen sich Programmierer eher dazu ermutig, Quelltext zu ändern, um dabei darüber zu reflektieren, und nehmen nicht erst dann Änderungen vor, wenn sie diese gedanklich strukturiert und evaluiert haben. Diese Arbeit berichtet weiterhin von einer Implementierung der vorgeschlagenen Werkzeugunterstützung in der Squeak/Smalltalk Entwicklungsumgebung. Regelmäßige Tests von Laufzeitverhalten und Benutzbarkeit begleiteten die Entwicklung. Zudem prüft die Arbeit, ob sich die Verwendung der vorgeschlagenen Werkzeuge auf die Leistung der Programmierer auswirkt. In einem kontrollierten Experiment, verbesserten 22 Teilnehmer den Aufbau von zwei verschiedenen Anwendungen. Unter der Verwendung einer Versuchsanordnung mit wiederholter Messung, ermittelte die Studie die Auswirkung von CoExist auf die Programmierleistung. Das Ergebnis der Analyse von 88 Programmierstunden deutet darauf hin, dass sich eingebaute Werkzeugunterstützung für Wiederherstellung, wie sie mit CoExist bereitgestellt wird, positiv bei der Bearbeitung von unstrukturierten ergebnisoffenen Programmieraufgaben auswirkt. KW - Softwaretechnik KW - Entwicklungswerkzeuge KW - Versionierung KW - Testen KW - software engineering KW - development tools KW - versioning KW - testing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71305 ER - TY - THES A1 - Stech, Marlitt T1 - Investigations on the cell-free synthesis of single-chain antibody fragments using a cukaryotic translation system Y1 - 2014 ER - TY - THES A1 - Späthe, Michael T1 - Der Ausbau der informatorischen Polizeibefugnisse in Brandenburg : eine verfassungsrechtliche Untersuchung der erweiterten Polizeibefugnisse zur Gefahren- und Informationsvorsorge T2 - Schriften zum Staats-, Verwaltungs- und Europarecht Y1 - 2014 SN - 978-3-631-64198-0 SN - 2193-1143 VL - 1 PB - Lang CY - Frankfurt am Main ER - TY - THES A1 - Sprenger, Heike T1 - Characterization of drought tolerance in potato cultivars for identification of molecular markers Y1 - 2014 ER - TY - THES A1 - Sorce, Jenny T1 - From Spitzer mid-infrared observations and measurements of peculiar velocities to constrained simulations of the local universe T1 - Von Spitzer-Beobachtungen im mittleren Infrarotbereich und Messungen der Pekuliargeschwindigkeiten zu Constrained Simulationen des Lokalen Universums N2 - Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmic flows and CLUES. Cosmic flows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 Mpc/h have been released. We report improvements and applications of the CLUES' method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel'dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors' positions in the initial field. The size of the second catalog (8000 galaxies within 150 Mpc/h) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory. N2 - Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (Constrained Simulations'') stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble-Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows-Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 Mpc/h. In dieser Arbeit wird die CLUES-Methode auf diese zwei Kataloge angewendet und Verbesserungen werden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 Mpc/h) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze. KW - Beobachtungen KW - Entfernungen KW - Pekuliargeschwindigkeiten KW - Simulationen KW - observations KW - distances KW - peculiar velocities KW - simulations Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72486 ER - TY - THES A1 - Soja, Aleksandra Maria T1 - Transcriptomic and metabolomic analysis of Arabidopsis thaliana during abiotic stress Y1 - 2014 ER - TY - THES A1 - Serrano, Paloma T1 - Methanogens from Siberian permafrost as models for life on Mars : response to simulated martian conditions and biosignature characterization T1 - Methanogene Archaeen aus sibirischen Permafrost als Modelle für Leben auf dem Mars N2 - Mars is one of the best candidates among planetary bodies for supporting life. The presence of water in the form of ice and atmospheric vapour together with the availability of biogenic elements and energy are indicators of the possibility of hosting life as we know it. The occurrence of permanently frozen ground – permafrost, is a common phenomenon on Mars and it shows multiple morphological analogies with terrestrial permafrost. Despite the extreme inhospitable conditions, highly diverse microbial communities inhabit terrestrial permafrost in large numbers. Among these are methanogenic archaea, which are anaerobic chemotrophic microorganisms that meet many of the metabolic and physiological requirements for survival on the martian subsurface. Moreover, methanogens from Siberian permafrost are extremely resistant against different types of physiological stresses as well as simulated martian thermo-physical and subsurface conditions, making them promising model organisms for potential life on Mars. The main aims of this investigation are to assess the survival of methanogenic archaea under Mars conditions, focusing on methanogens from Siberian permafrost, and to characterize their biosignatures by means of Raman spectroscopy, a powerful technology for microbial identification that will be used in the ExoMars mission. For this purpose, methanogens from Siberian permafrost and non-permafrost habitats were subjected to simulated martian desiccation by exposure to an ultra-low subfreezing temperature (-80ºC) and to Mars regolith (S-MRS and P-MRS) and atmospheric analogues. They were also exposed to different concentrations of perchlorate, a strong oxidant found in martian soils. Moreover, the biosignatures of methanogens were characterized at the single-cell level using confocal Raman microspectroscopy (CRM). The results showed survival and methane production in all methanogenic strains under simulated martian desiccation. After exposure to subfreezing temperatures, Siberian permafrost strains had a faster metabolic recovery, whereas the membranes of non-permafrost methanogens remained intact to a greater extent. The strain Methanosarcina soligelidi SMA-21 from Siberian permafrost showed significantly higher methane production rates than all other strains after the exposure to martian soil and atmospheric analogues, and all strains survived the presence of perchlorate at the concentration on Mars. Furthermore, CRM analyses revealed remarkable differences in the overall chemical composition of permafrost and non-permafrost strains of methanogens, regardless of their phylogenetic relationship. The convergence of the chemical composition in non-sister permafrost strains may be the consequence of adaptations to the environment, and could explain their greater resistance compared to the non-permafrost strains. As part of this study, Raman spectroscopy was evaluated as an analytical technique for remote detection of methanogens embedded in a mineral matrix. This thesis contributes to the understanding of the survival limits of methanogenic archaea under simulated martian conditions to further assess the hypothetical existence of life similar to methanogens on the martian subsurface. In addition, the overall chemical composition of methanogens was characterized for the first time by means of confocal Raman microspectroscopy, with potential implications for astrobiological research. N2 - Der Mars ist unter allen Planeten derjenige, der aufgrund verschiedener Faktoren am wahrscheinlichsten Leben ermöglichen kann. Das Vorhandensein von Wasser in Form von Eis und atmosphärischem Dampf zusammen mit der Verfügbarkeit biogener Elemente sowie Energie sind Indikatoren für die Möglichkeit, Leben, wie wir es kennen, zu beherbergen. Das Auftreten von dauerhaft gefrorenen Böden, oder auch Permafrost, ist ein verbreitetes Phänomen auf dem Mars. Dabei zeigen sich vielfältige morphologische Analogien zum terrestrischen Permafrost. Permafrostgebiete auf der Erde, welche trotz extremer, Bedingungen durch eine große Zahl und Vielfalt mikrobieller Gemeinschaften besiedelt sind, sind hinsichtlich möglicher Habitate auf dem Mars die vielversprechendste Analogie. Die meisten methanogenen Archaeen sind anaerobe, chemolithotrophe Mikroorganismen, die auf der Marsoberfläche viele der metabolischen und physiologischen Erfordernisse zum Überleben vorfinden. Methanogene Archaeen aus dem sibirischen Permafrost sind zudem extrem resistent gegenüber unterschiedlichen Formen von physiologischem Stress sowie simulierten thermo-physikalischen Marsbedingungen. Die Hauptziele dieser Untersuchung bestehen darin, das Überleben der methanogenen Archaeen unter Marsbedingungen zu beurteilen, wobei der Fokus auf methanogenen Archaeen aus dem sibirischen Permafrost liegt, sowie deren Biosignaturen mit Hilfe der Raman-Spektroskopie zu charakterisieren, einer starken Technologie zur mikrobiellen Identifikation, welche bei der ExoMars-Mission zum Einsatz kommen wird. Zu diesem Zweck wurden methanogene Archaeen aus dem sibirischen Permafrost sowie aus Nicht-Permafrost-Habitaten in Simulationen Marsbedingungen ausgesetzt, wie Austrocknung durch Langzeitversuche bei ultraniedrigen Temperaturen unter dem Gefrierpunkt (-80ºC), Mars-analogen Mineralien (S-MRS und P-MRS) sowie einer Marsatmosphäre. Weiterhin wurden die Kulturen verschiedenen Konzentrationen von Magnesiumperchlorat, einem starken Oxidant, der im Marsboden nachgewiesenen wurde, ausgesetzt. Ferner wurden die Biosignaturen einzelner Zellen der methanogenen Archaeen mit Hilfe der konfokalen Raman-Mikrospektroskopie (CRM) charakterisiert. Die Ergebnisse zeigten für alle untersuchten methanogenen Stämme Überleben und Methanbildung, nachdem diese simulierten Austrocknungsbedingungen ausgesetzt worden waren. Nach Versuchen mit Temperaturen unter dem Gefrierpunkt zeigten die Stämme aus dem sibirischen Permafrost eine schnellere Wiederaufnahme der Stoffwechseltätigkeit, wohingegen bei den Referenzorganismen aus Nicht-Permafrost-Habitaten die Zell¬membranen im größeren Ausmaß intakt blieben. Der Stamm Methanosarcina soligelidi SMA-21 aus dem sibirischen Permafrost zeigte nach dem Belastungstest mit Marsboden und Mars-analoger Atmosphäre signifikant höhere Methanbildungsraten. Zudem überlebten alle untersuchten Stämme die Zugabe von Magnesiumperchlorat in der entsprechenden Konzentration, die auf dem Mars vorkommt. Weiterhin konnten durch die Raman-Spektroskopie beachtliche Unterschiede in der chemischen Zusammensetzung zwischen methanogenen Archaeen aus Permafrost- und Nicht-Permafrost-Habitaten, trotz ihrer phylogenetischen Verwandtschaft, ermittelt werden. Die Konvergenz der chemischen Zusammensetzung der Permafrost-Stämme könnte das Resultat ihrer Anpassung an die Umgebung sein, was auch die Unterschiede hinsichtlich ihrer Resistenz verglichen mit Nicht-Permafrost-Stämmen erklären könnte. Als Teil dieser Studie wurde die Raman-Spektroskopie als Analyse-Technik zur Ferndetektion von methanogenen Archaeen, welche in eine Mineral-Matrix eingebettet sind, evaluiert. Diese Dissertation trägt zu einem besseren Verständnis hinsichtlich der Grenzen für ein Überleben von methanogenen Archaeen unter simulierten Marsbedingungen bei und damit zu einer Beurteilung der Hypothese, ob es ähnliches Leben unter der Marsoberfläche geben könnte. Darüber hinaus wurde erstmalig die chemische Zusammensetzung von methanogenen Archaeen mit Hilfe der Raman-Mikrospektroskopie charakterisiert. Dieser Technologie kommt eine wesentliche Bedeutung für weitere Forschungstätigkeit in der Astrobiologie zu. KW - Methanogene Archaeen KW - sibirischen Permafrost KW - Mars KW - Raman Spektroskopie KW - Biosignaturen KW - methanogenic archaea KW - Siberian permafrost KW - Mars KW - Raman spectroscopy KW - biosignatures Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72299 ER - TY - THES A1 - Senyuk, Ulyana T1 - Zum Status relativähnlicher Sätze im Frühneuhochdeutschen T1 - Relative-like clauses in Early New High German BT - ein Beitrag zum Wesen der Subordination im älteren Deutsch BT - a contribution to the nature of subordination in old German N2 - Diese Arbeit befasst sich mit den sogenannten relativähnlichen Sätzen im Frühneuhochdeutschen und leistet somit einen Beitrag zur Subordinationsforschung des älteren Deutsch. Relativähnliche Sätze sind formal durch ein satzinitiales anaphorisches d-Element und die Endstellung des finiten Verbs gekennzeichnet. Semantisch gesehen beziehen sie sich auf den vorangehenden Satz als Ganzes, indem sie ihn in bestimmter Weise weiterführen oder kommentieren. In der bisherigen Forschung werden diese Sätze satztypologisch als Hauptsätze mit Verbendstellung analysiert (vgl. dazu Maurer 1926, Behaghel 1932 und Lötscher 2000). Nach der ausführlichen Diskussion der formalen Abhängigkeitsmarker im älteren Deutsch sowie anhand einer umfangreichen korpusbasierten Untersuchung wird in dieser Arbeit gezeigt, dass relativähnliche Sätze im Frühneuhochdeutschen auch als abhängige Sätze - analog zu den weiterführenden Relativsätzen im Gegenwartsdeutschen - analysiert werden können. Die weiterführenden Relativsätze im Gegenwartsdeutschen enthalten satzinitial auch ein anaphorisches Element, das sich auf das Gesagte in dem vorangehenden Satz bezieht. Verbendstellung weisen sie ebenfalls auf (mehr zur Grammatik der weiterführenden Relativsätze vgl. insb. Brandt 1990 und Holler 2005). Über die Untersuchung relativähnlicher Sätze hinaus befasst sich diese Arbeit ausführlich mit formalen Abhängigkeitsmarkern des älteren Deutsch, wie Verbendstellung, Einleiter und afinite Konstruktion. N2 - This study deals with so-called relative-like clauses from Early New High German and makes a contribution to the research of subordination in older German. Formally relative-like clauses contain an anaphoric d-word in the initial clause position and exhibit the final position of the finite verb. Semantically they relate to the whole situation of the host clause as a continuation or as a comment. The earlier research analyses these clauses as main clauses with verb-end order (see Maurer 1926, Behaghel 1932 and Lötscher 2000). This study shows after an extensive discussion of the formal dependency markers in older German and on the basis of a large corpus-based study, that relative-like clauses in Early New High German can be analysed as dependent clauses, analogous to continuative relative clauses in Present-Day German. The continuative relative clauses contain also an anaphoric element in the initial clause position, which relates to the whole situation of the host clause. And they also exhibit the verb-end order (for more about the grammar of continuative relative clauses, see Brandt 1900 and Holler 2005). Beyond the study of relative-like clauses in Early New High German this thesis discusses in detail the formal dependency markers of old German like verb-end order, subordinated conjunctions and the afinite construction. KW - Frühneuhochdeutsch KW - historische Syntax KW - Satzgefüge KW - relativähnliche Sätze KW - Early New High German KW - historical syntax KW - clause combining KW - relative-like clauses Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91673 ER - TY - THES A1 - Sen, Ali Tolga T1 - Inversion of seismic source parameters for weak mining-induced and natural earthquakes T1 - Inversion von seismischen Quellparametern für schwache Bergbau-induzierte und natürliche Erdbeben N2 - The purpose of this thesis is to develop an automated inversion scheme to derive point and finite source parameters for weak earthquakes, here intended with the unusual meaning of earthquakes with magnitudes at the limit or below the bottom magnitude threshold of standard source inversion routines. The adopted inversion approaches entirely rely on existing inversion software, the methodological work mostly targeting the development and tuning of optimized inversion flows. The resulting inversion scheme is tested for very different datasets, and thus allows the discussion on the source inversion problem at different scales. In the first application, dealing with mining induced seismicity, the source parameters determination is addressed at a local scale, with source-sensor distance of less than 3 km. In this context, weak seismicity corresponds to event below magnitude MW 2.0, which are rarely target of automated source inversion routines. The second application considers a regional dataset, namely the aftershock sequence of the 2010 Maule earthquake (Chile), using broadband stations at regional distances, below 300 km. In this case, the magnitude range of the target aftershocks range down to MW 4.0. This dataset is here considered as a weak seismicity case, since the analysis of such moderate seismicity is generally investigated only by moment tensor inversion routines, with no attempt to resolve source duration or finite source parameters. In this work, automated multi-step inversion schemes are applied to both datasets with the aim of resolving point source parameters, both using double couple (DC) and full moment tensor (MT) models, source duration and finite source parameters. A major result of the analysis of weaker events is the increased size of resulting moment tensor catalogues, which interpretation may become not trivial. For this reason, a novel focal mechanism clustering approach is used to automatically classify focal mechanisms, allowing the investigation of the most relevant and repetitive rupture features. The inversion of the mining induced seismicity dataset reveals the repetitive occurrence of similar rupture processes, where the source geometry is controlled by the shape of the mined panel. Moreover, moment tensor solutions indicate a significant contribution of tensile processes. Also the second application highlights some characteristic geometrical features of the fault planes, which show a general consistency with the orientation of the slab. The additional inversion for source duration allowed to verify the empirical correlation for moment normalized earthquakes in subduction zones among a decreasing rupture duration with increasing source depth, which was so far only observed for larger events. N2 - Ziel dieser Dissertation ist es ein automatisches Inversionsschema zur Ableitung von Parametern für Punkt- und finite Quellen von "schwachen" Erdbeben im Sinne von aussergewöhnlich kleinen Erdbeben an oder unterhalb der Magnitudenschwelle für Standard-Inversionsroutinen zu entwickeln. Der verwendete Inversionsansatz baut auf bestehender Inversionssoftware auf, die methodische Arbeit zielt hauptsächlich auf die Entwicklung und das Tuning des optimierten Inversionsablaufs. Das resultierende Inversionsverfahren ist für verschiedene Datensätze getestet und erlaubt somit eine Diskussion über das Herdinversionsproblem auf unterschiedlichen Skalierungen. In der ersten Anwendung, die sich mit induzierter Seismizität in Minen beschäftigt, werden die Herdparameter im lokalen Bereich mit einer Herd-Empfänger Entfernung von weniger als 3 km bestimmt. In diesem Zusammenhang bezieht sich die "schwache" Seismizität auf Ereignisse mit Magnituden unter Mw 2.0, welche sehr selten das Ziel von automatisierten Herdinversionsroutinen sind. Die zweite Anwendung berücksichtigt den regionalen Datensatz der Nachbebesequenz des Maule (Chile) Erdbebens von 2010, aufgezeichnet durch Breitband-Stationen in einer maximalen Entfernung von 300 km. In diesem Fall umfasst der Magnitudenbereich Ereignisse mit Magnituden kleiner als Mw 4.0. Auch dieser Datensatz wird hier als "schwache" Seismizität interpretiert, da die Analyse solch moderater Seismizität normalerweise nur durch Routinen für Momententensorinversion erfolgt, welche keinerlei Auflösung für die Herddauer oder finite Herdparameter beinhaltet. In dieser Arbeit wird ein automatisiertes, mehrstufiges Inversionsverfahren auf beide Datensätze angewendet mit dem Ziel sowohl Punktquellen-Herdparameter für double-couple (DC) und volle Momententensor (MT) Modelle als auch für Herddauer und finite Herdparameter zu bestimmen. Ein Hauptergebnis dieser Analyse von schwachen Ereignissen ist die Vergrößerung von Momententensor-Katalogen, deren Interpretation wichtig werden könnte. Aus diesem Grund wurde ein neuartiger Cluster-Ansatz für Herdmechanismen angewendet um diese automatisch zu klassifizieren, der somit die Untersuchung der wichtigsten und sich wiederholenden Bruchprozessen erlaubt. Die Inversion des Datensatzes von induzierter Seismizität in Minen enthüllt das sich wiederholende Auftreten von ähnlichen Bruchprozessen, wobei die Herdgeometrie von der Form der Minentäfelung kontrolliert wird. Darüber hinaus deuten die Momententensorlösungen einen signifikanten Beitrag von tensilen Prozessen an. Auch die zweite Anwendung zeigt einige charackteristische, geometrische Besonderheiten der Bruchflächen auf, welche prinzipiell konsistent zur Orientierung der subduzierten Platte sind. Die zusätzliche Inversion nach der Herdzeit erlaubt die Verifizierung von empirischen Korrelationen von momentennormalisierten Erdbeben in Subduktionszonen zwischen einer abnehmenden Bruchdauer mit zunehmender Herdtiefe, welche bisher nur für größere Ereignisse beobachtet wurde. KW - Seismologie KW - induzierten Seismizität KW - Quellenumkehr KW - Momententensor KW - Aufenthaltsdauer KW - seismology KW - induced seismicity KW - source inversion KW - moment tensor KW - source duration Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71914 ER - TY - THES A1 - Secker, Christian T1 - Polypeptoid block coloymers BT - synthesis, modification, and structure formation Y1 - 2014 ER - TY - THES A1 - Schönebeck, Maria T1 - Behavioural, visual, and electrophysiological correlates of infant reasoning about others' intentional actions BT - an integrative analysis of infant attention, encoding, and reproduction measures Y1 - 2014 ER - TY - THES A1 - Schwarz, Franziska T1 - Einfluss von Kalorienrestriktion auf den Metabolismus T1 - Effect of Caloric Restriction on Metabolism N2 - Die Häufung von Diabetes, Herz-Kreislauf-Erkrankungen und einigen Krebsarten, deren Entstehung auf Übergewicht und Bewegungsmangel zurückzuführen sind, ist ein aktuelles Problem unserer Gesellschaft. Insbesondere mit fortschreitendem Alter nehmen die damit einhergehenden Komplikationen zu. Umso bedeutender ist das Verständnis der pathologischen Mechanismen in Folge von Adipositas, Bewegungsmangel, des Alterungsprozesses und den Einfluss-nehmenden Faktoren. Ziel dieser Arbeit war die Entstehung metabolischer Erkrankungen beim Menschen zu untersuchen. Die Auswertung von Verlaufsdaten anthropometrischer und metabolischer Parameter der 584 Teilnehmern der prospektiven ‚Metabolisches Syndrom Berlin Potsdam Follow-up Studie‘ wies für die gesamte Kohorte einen Anstieg an Übergewicht, ebenso eine Verschlechterung des Blutdrucks und des Glukosestoffwechsels auf. Wir untersuchten, ob das Hormon FGF21 Einfluss an dem Auftreten eines Diabetes mellitus Typ 2 (T2DM) oder des Metabolischen Syndroms (MetS) hat. Wir konnten zeigen, dass Personen, die später ein MetS entwickeln, bereits zu Studienbeginn einen erhöhten FGF21-Spiegel, einen höheren BMI, WHR, Hb1Ac und diastolischen Blutdruck aufwiesen. Neben FGF21 wurde auch Vaspin in diesem Zusammenhang untersucht. Es zeigte sich, dass Personen, die später einen T2DM entwickeln, neben einer Erhöhung klinischer Parameter tendenziell erhöhte Spiegel des Hormons aufwiesen. Mit FGF21 und Vaspin wurden hier zwei neue Faktoren für die Vorhersage des Metabolischen Syndroms bzw. Diabetes mellitus Typ 2 identifiziert. Der langfristige Effekt einer Gewichtsreduktion wurde in einer Subkohorte von 60 Personen untersucht. Der überwiegende Teil der Probanden mit Gewichtsabnahme-Intervention nahm in der ersten sechsmonatigen Phase erfolgreich ab. Jedoch zeigte sich ein deutlicher Trend zur Wiederzunahme des verlorenen Gewichts über den Beobachtungszeitraum von fünf Jahren. Von besonderem Interesse war die Abschätzung des kardiovaskulären Risikos über den Framingham Score. Es wurde deutlich, dass für Personen mit konstanter Gewichtsabnahme ein deutlich geringeres kardiovaskuläres Risiko bestand. Hingegen zeigten Personen mit konstanter Wiederzunahme oder starken Gewichtsschwankungen ein hohes kardiovaskuläres Risiko. Unsere Daten legten nahe, dass eine erfolgreiche dauerhafte Gewichtsreduktion statistisch mit einem erniedrigten kardiovaskulären Risiko assoziiert ist, während Probanden mit starken Gewichtsschwankungen oder einer Gewichtszunahme ein gesteigertes Risiko haben könnten. Um die Interaktion der molekularen Vorgänge hinsichtlich der Gewichtsreduktion und Lebensspanne untersuchen zu können, nutzen wir den Modellorganismus C.elegans. Eine kontinuierliche Restriktion wirkte sich verlängernd, eine Überversorgung verkürzend auf die Lebensspanne des Rundwurms aus. Der Einfluss eines zeitlich eingeschränkten, intermittierenden Nahrungsregimes, analog zum Weight-Cycling im Menschen, auf die Lebensspanne war von großem Interesse. Dieser regelmäßige Wechsel zwischen ad libitum Fütterung und Restriktion hatte in Abhängigkeit von der Häufigkeit der Restriktion einen unterschiedlich starken lebensverlängernden Effekt. Phänomene, wie Gewichtswiederzunahmen, sind in C.elegans nicht zu beobachten und beruhen vermutlich auf einem Mechanismus ist, der evolutionär jünger und in C.elegans noch nicht angelegt ist. Um neue Stoffwechselwege zu identifizieren, die die Lebensspanne beeinflussen, wurden Metabolitenprofile genetischer als auch diätetischer Langlebigkeitsmodelle analysiert. Diese Analysen wiesen den Tryptophan-Stoffwechsel als einen neuen, bisher noch nicht im Fokus stehenden Stoffwechselweg aus, der mit Langlebigkeit in Verbindung steht. N2 - The accumulation of diseases attributed to obesity and sedentary lifestyle has emerged as a current problem in our society. Over time, the accompanying complications increase. Therefore, it is of utmost importance to understand the pathological mechanisms due to overweight and a lack of physical activity, as well as of the aging process and its influencing factors. Our aim was to examine the development of metabolic diseases in a human cohort. We evaluated anthropometric data and metabolic parameters of 584 participants of the prospective MeSyBePo follow-up study with a mean follow-up of more than 5 years. We observed an increase in excess weight in the entire cohort. Likewise worsening of blood pressure and parameters of glucose metabolism was distinctive for this group. FGF21 was identified as a new potential biomarker for the evaluation of the risk of Diabetes mellitus type 2 and the metabolic syndrome. By exclusion of all individuals with a diagnosed Diabetes mellitus type 2 as well as metabolic syndrome at baseline we examined whether FGF21 would have a predictive value for the incidence of Diabetes mellitus type 2 or the metabolic syndrome. We could show that, compared to controls, individuals who developed a metabolic syndrome had significantly elevated FGF21 levels at baseline accompanied by higher BMI, WHR, Hb1Ac and diastolic blood pressure. FGF21 proved to be an independent predictor of the metabolic syndrome following adjustment for age, gender, follow-up time, WHR, systolic blood pressure, HDL, triglycerides and fasting blood glucose levels. Vaspin was identified as another adipokine that influenced the risk of Diabetes mellitus type 2. We examined whether yaspin had a predictive value for the incidence of Diabetes mellitus type 2 under exclusion of all diabetics at baseline and all participants with the intention to lose weight. We could show that, compared to controls, individuals who became diabetic had significantly higher BMI, WHR, HbA1c, systolic blood pressure, triglycerides, fasting plasma glucose as well as 2h glucose. Vaspin had a strong effect on the risk of Diabetes mellitus type 2 when adjusted for age, gender, BMI, follow-up time, Hb1Ac, waist circumference, leukocytes and light activity. In a subcohort of 60 individuals with the intention to lose weight, the long-term effects of weight loss were examined. Weight course of all 60 participants was asked and validated. The majority reduced weight successfully during the initial intervention period of 6 month. However, a distinct trend indicated weight regain over time. The evaluation of cardiovascular risk by the Framingham Risk Score for this cohort was of particular interest. Stratified by weight course, the cardiovascular risk was reduced for those with constant weight. Elevated risk was calculated for individuals with constant regain or strong weight cycling. Overall, the size of our cohort was insufficient to come to a final conclusion. Our data imply that a successful weight loss is associated with a lower estimated cardiovascular risk, while individuals who regain weight are likely to increase their estimated cardiovascular risk. A comparison of the incident cases between groups of Diabetes mellitus type 2 and the metabolic syndrome showed that for those with weight cycling there was a higher risk for an incident of the metabolic syndrome. In order to examine the molecular mechanisms in a simple organism with focus on the interaction of weight reduction and life span, we chose C.elegans. For this model, the influence of a scheduled fasting regime and its influence on life span was examined. Continuous restriction and oversupply of nutrients caused elongated and shortened life spans, respectively. We were interested in the effect of an intermittent fasting regime on life span. The regular switch between ad libitum feeding and restriction as a function of the number of restriction cycles caused various life prolonging effects. The phenomenon of weight regain known amongst humans could not be observed in the nematode. The effect is probably regulated via mechanisms that are phylogenetically younger and therefore not present yet in the nematode. As a speculation, the reward system could be the missing mechanism in the nematode. In order to identify new metabolic pathways that influence life span we analysed metabolic profiles of genetically and dietary longlived models. We identified trytophan metabolism as a new, yet unknown pathway that is related to the regulation of life span. Its significance was examined via RNA interference by inhibiting the degradation and alternation of tryptophan, which resulted in an increase in life span. In summary, we were able to identify two new hormones as predictors for the metabolic syndrome and Diabetes mellitus type 2 - Vaspin and FGF21. We showed that a successful weight reduction is often followed by weight regain and that this is associated with negative metabolic consequences. The limitation of our study is the small size of the cohort. Therefore a final evaluation of the examined relations is not yet possible. For the nematode C.elegans, we could show that the frequency of fasting periods is a life extending factor that should not be underestimated. We assume that the mechanisms behind the negative metabolic consequences of an intended weight reduction are phylogenetically younger and therefore not yet present in the nematode. In an unbiased analyses of the changes in metabolic profiles in different nematodes, we were able to prove the importance of the tryptophan pathway for longevity in the nematode. KW - Kalorienrestriktion KW - Gewichtsreduktion KW - kardiovaskuläres Risiko KW - caloric restriction KW - weight reduction KW - cardiovascular risk Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83147 ER - TY - THES A1 - Schulz, Elisa T1 - The role of flavonols and anthocyanins in the cold an UV-B acclimation of Arabidopsis thaliana (L.) Y1 - 2014 ER - TY - THES A1 - Schulz, Anneli T1 - Search for gamma-ray emission from bow shocks of runaway stars T1 - Suche nach Gammastrahlungsemission aus Bugwellen von Schnellläufersternen N2 - The mystery of the origin of cosmic rays has been tackled for more than hundred years and is still not solved. Cosmic rays are detected with energies spanning more than 10 orders of magnitude and reaching energies up to ~10²¹ eV, far higher than any man-made accelerator can reach. Different theories on the astrophysical objects and processes creating such highly energetic particles have been proposed. A very prominent explanation for a process producing highly energetic particles is shock acceleration. The observation of high-energy gamma rays from supernova remnants, some of them revealing a shell like structure, is clear evidence that particles are accelerated to ultrarelativistic energies in the shocks of these objects. The environments of supernova remnants are complex and challenge detailed modelling of the processes leading to high-energy gamma-ray emission. The study of shock acceleration at bow shocks, created by the supersonic movement of individual stars through the interstellar medium, offers a unique possibility to determine the physical properties of shocks in a less complex environment. The shocked medium is heated by the stellar and the shock excited radiation, leading to thermal infrared emission. 28 bow shocks have been discovered through their infrared emission. Nonthermal radiation in radio and X-ray wavelengths has been detected from two bow shocks, pointing to the existence of relativistic particles in these systems. Theoretical models of the emission processes predict high-energy and very high-energy emission at a flux level in reach of current instruments. This work presents the search for gamma-ray emission from bow shocks of runaway stars in the energy regime from 100MeV to ~100TeV. The search is performed with the large area telescope (LAT) on-board the Fermi satellite and the H.E.S.S. telescopes located in the Khomas Highland in Namibia. The Fermi-LAT was launched in 2008 and is continuously scanning the sky since then. It detects photons with energies from 20MeV to over 300 GeV and has an unprecedented sensitivity. The all-sky coverage allows us to study all 28 bow shocks of runaway stars listed in the E-BOSS catalogue of infrared bow shocks. No significant emission was detected from any of the objects, although predicted by several theoretical models describing the non-thermal emission of bow shocks of runaway stars. The H.E.S.S. experiment is the most sensitive system of imaging atmospheric Cherenkov telescopes. It detects photons from several tens of GeV to ~100TeV. Seven of the bow shocks have been observed with H.E.S.S. and the data analysis is presented in this thesis. The analyses of the very-high energy data did not reveal significant emission from any of the sources either. This work presents the first systematic search for gamma-ray emission from bow shocks of runaway stars. For the first time Fermi-LAT data was specifically analysed to reveal emission from bow shocks of runaway stars. In the TeV regime no searches for emission from theses objects have been published so far, the study presented here is the first in this energy regime. The level of the gamma-ray emission from bow shocks of runaway stars is constrained by the calculated upper limits over six orders in magnitude in energy. The upper limits calculated for the bow shocks of runaway stars in the course of this work, constrain several models. For the best candidate, ζ Ophiuchi, the upper limits in the Fermi-LAT energy range are lower than the predictions by a factor ~5. This challenges the assumptions made in this model and gives valuable input for further modelling approaches. The analyses were performed with the software packages provided by the H.E.S.S. and Fermi collaborations. The development of a unified analysis framework for gamma-ray data, namely GammaLib/ctools, is rapidly progressing within the CTA consortium. Recent implementations and cross-checks with current software frameworks are presented in the Appendix. N2 - Das Rätsel des Ursprungs der kosmischen Strahlung wird seit über 100 Jahren angegangen und ist noch immer nicht gelöst. Kosmische Strahlung wird mit Energien die zehn Größenordnungen überspannen gemessen und erreicht Energien bis zu ~10²¹ eV, weit höher als irgendein menschengemachter Beschleuniger erzeugen kann. Verschiedene Theorien über die astrophysikalischen Objekte und Prozesse, die solch hochenergetische Teilchen erzeugen können, wurden vorgeschlagen. Eine prominente Erklärung für einen Prozess, der hochenergetische Teilchen erzeugt ist Schockbeschleunigung. Die Detektion von hochenergetischer Gammastrahlung von Supernovaüberresten, von denen einige schalenförmige Strukturen offenbarten, ist ein klarer Beweis für die Beschleunigung von Teilchen zu ultrarelativistischen Energien in den Schocks dieser Objekte. Die Umgebung von Supernovaüberresten ist komplex und das detaillierte Modellieren der Prozesse die zu hochenergetischer Gammastrahlung führen herausfordernd. Die Untersuchung von Schockbeschleunigung an Bugwellen, die durch individuelle Sterne erzeugt werden, die sich mit Überschallgeschwindigkeit durch das interstellare Medium bewegen, bietet die einmalige Gelegenheit die physikalischen Eigenschaften von Schocks in einer weniger komplexen Umgebung zu bestimmen. Das komprimierte ("geschockte") Medium wird durch die Strahlung des Sterns und die durch den Schock angeregte Strahlung erhitzt und sendet infolgedessen thermische Infrarot-Strahlung aus. Nichtthermische Strahlung, die auf die Existenz von relativistischen Teilchen hinweist, wurde von zwei Bugwellen in Radio- und Röntgen-Wellenlängen gemessen. Theoretische Modelle der Strahlungsprozesse sagen hochenergetische und sehr hochenergetische Strahlung auf einem Niveau, welches mit aktuellen Instrumenten gemessen werden kann, voraus. Diese Arbeit präsentiert die Suche nach hochenergetischer Gammastrahung von Bugwellen von Schnellläufersternen in einem Energiebereich von 100MeV bis ~100TeV. Diese Suche wird mit dem "large area telescope"(LAT) an Bord des Fermi Satelliten und den H.E.S.S. Teleskopen, die im Khomas Hochland in Namibia in Betrieb sind, durchgeführt. Der Fermi Satellit wurde 2008 gestartet und das Fermi-LAT durchmustert seitdem kontinuierlich den Himmel. Es detektiert Photonen im Energiebereich von 20MeV bis über 300GeV und hat eine noch nie dagewesene Sensitivität. Die Abdeckung des gesamten Himmels erlaubt es alle 28 Bugwellen von Schnellläufersternen, die im E-BOSS Katalog aufgelistet sind, zu untersuchen. Von keiner der Bugwellen der Schnellläufersterne konnte signifikante Strahlung nachgewiesen werden, obwohl diese von theoretischen Modellen, die die nichtthermische Emission von Bugwellen von Schnellläufersternen beschreiben, vorausgesagt wurde. Das H.E.S.S. Experiment ist das sensitivste System von abbildenden Cherenkovteleskopen. Es kann Photonen mit Energien von einigen zehn GeV bis zu ~100TeV nachweisen. Sieben der Bugwellen von Schnellläufersternen wurden mit H.E.S.S. beobachtet und die Analyse der Daten wird in dieser Arbeit präsentiert. Auch die Analysen der sehr hochenergetischen Strahlung enthüllten keine signifikante Strahlung aus den Bugwellen der Schnellläufersterne. Diese Arbeit stellt die erste systematische Suche nach Gammastrahlung aus Bugwellen von Schnellläufersternen vor. Zum ersten Mal wurden Fermi-LAT Daten speziell zur Suche nach Emission von diesen Objekten analysiert. Im TeV-Energiebereich wurden bisher noch keine Suchen nach Gammastrahlung von Schnellläufersternen publiziert, die hier vorgestellte Studie ist also die erste in diesem Energiebereich. Das Niveau des Gammastrahlungflusses von Schnellläufersternen wird über einen sechs Größenordnungen überspannenden Energiebereich eingeschränkt. Die oberen Grenzen des Gammastrahlungs usses aus Bugwellen von Schnellläufersternen schränken verschiedene Modelle ein. Für den besten Kandidaten, ζ Ophiuchi, liegen die berechneten oberen Grenzen im Fermi-LAT Energiebereich einen Faktor ~5 unter den Vorhersagen. Dies fordert die Annahmen des Modells heraus und liefert wertvolle Bedingungen für weitere Modellierungsansätze. Die präsentierten Analysen wurden mit den Softwarepakten, die von den Fermi und H.E.S.S. Kollaborationen zur Verfügung gestellt werden, durchgeführt. Die Entwicklung einer gemeinsamen Analyseumgebung namens GammaLib/ctools wird im Rahmen des CTA Konsortiums umgesetzt. Neue Implementierungen und Gegenproben zu den momentanen Analyseumgebungen werden im Anhang präsentiert. KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - GammaLib/ctools KW - Bugwellenschocks KW - Schnellläufersterne KW - gamma-ray astronomy KW - Fermi KW - H.E.S.S KW - gammalib/ctools KW - bow shocks KW - runaway stars Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73905 ER - TY - THES A1 - Schultheiss, Corinna T1 - Die Bewertung der pharyngalen Schluckphase mittels Bioimpedanz T1 - The valuation of the pharyngeal phase of swallowing by means of bioimpedance BT - Evaluation eines Mess- und Diagnostikverfahrens BT - evaluation of a measuring procedure and diagnostics procedure N2 - Schlucken ist ein lebensnotwendiger Prozess, dessen Diagnose und Therapie eine enorme Herausforderung bedeutet. Die Erkennung und Beurteilung von Schlucken und Schluckstörungen erfordert den Einsatz von technisch aufwendigen Verfahren, wie Videofluoroskopie (VFSS) und fiberoptisch-endoskopische Schluckuntersuchung (FEES), die eine hohe Belastung für die Patienten darstellen. Beide Verfahren werden als Goldstandard in der Diagnostik von Schluckstörungen eingesetzt. Die Durchführung obliegt in der Regel ärztlichem Personal. Darüber hinaus erfordert die Auswertung des Bildmaterials der Diagnostik eine ausreichend hohe Erfahrung. In der Therapie findet neben den klassischen Therapiemethoden, wie z.B. diätetische Modifikationen und Schluckmanöver, auch zunehmend die funktionelle Elektrostimulation Anwendung. Ziel der vorliegenden Dissertationsschrift ist die Evaluation eines im Verbundprojekt BigDysPro entwickelten Bioimpedanz (BI)- und Elektromyographie (EMG)-Messsystems. Es wurde geprüft, ob sich das BI- und EMG-Messsystem eignet, sowohl in der Diagnostik als auch in der Therapie als eigenständiges Messsystem und im Rahmen einer Schluckneuroprothese eingesetzt zu werden. In verschiedenen Studien wurden gesunde Probanden für die Überprüfung der Reproduzierbarkeit (Intra-und Interrater-Reliabilität), der Unterscheidbarkeit von Schluck- und Kopfbewegungen und der Beeinflussung der Biosignale (BI, EMG) durch verschiedene Faktoren (Geschlecht der Probanden, Leitfähigkeit, Konsistenz und Menge der Nahrung) untersucht. Durch zusätzliche Untersuchungen mit Patienten wurde einerseits der Einfluss der Elektrodenart geprüft. Andererseits wurden parallel zur BI- und EMG-Messung auch endoskopische (FEES) und radiologische Schluckuntersuchungen (VFSS) durchgeführt, um die Korrelation der Biosignale mit der Bewegung anatomischer Strukturen (VFSS) und mit der Schluckqualität (FEES) zu prüfen. Es wurden 31 gesunde Probanden mit 1819 Schlucken und 60 Patienten mit 715 Schlucken untersucht. Die Messkurven zeigten einen typischen, reproduzierbaren Signalverlauf, der mit anatomischen und funktionellen Änderungen während der pharyngalen Schluckphase in der VFSS korrelierte (r > 0,7). Aus dem Bioimpedanzsignal konnten Merkmale extrahiert werden, die mit physiologischen Merkmalen eines Schluckes, wie verzögerter laryngealer Verschluss und Kehlkopfhebung, korrelierten und eine Einschätzung der Schluckqualität in Übereinstimmung mit der FEES ermöglichten. In den Signalverläufen der Biosignale konnten signifikante Unterschiede zwischen Schluck- und Kopfbewegungen und den Nahrungsmengen und -konsistenzen nachgewiesen werden. Im Gegensatz zur Nahrungsmenge und -konsistenz zeigte die Leitfähigkeit der zu schluckenden Nahrung, das Geschlecht der Probanden und die Art der Elektroden keinen signifikanten Einfluss auf die Messsignale. Mit den Ergebnissen der Evaluation konnte gezeigt werden, dass mit dem BI- und EMG-Messsystem ein neuartiges und nicht-invasives Verfahren zur Verfügung steht, das eine reproduzierbare Darstellung der pharyngalen Schluckphase und ihrer Veränderungen ermöglicht. Daraus ergeben sich vielseitige Einsatzmöglichkeiten in der Diagnostik, z.B. Langzeitmessung zur Schluckfrequenz und Einschätzung der Schluckqualität, und in der Therapie, z.B. der Einsatz in einer Schluckneuroprothese oder als Biofeedback zur Darstellung des Schluckes, von Schluckstörungen. N2 - Swallowing is a vital process. Its diagnosis and therapy represent enourmous medical challenges. The detection and assessment of swallows and swallowing disorders require elaborate techniques such as videofluoroscopy (VFSS) and fiberoptic endoscopic evaluation of swallowing (FEES), which entail a high burden for the patient. Both methods are currently used as a goldstandard in the diagnosis and therapy of swallowing disorders. The measurements must, in general, be performed and evaluated by experienced medical personnel. In therapy, dietary modifications and swallowing maneuvers are common methods. But also functional electrical stimulation (FES) is increasingly used. The goal of this doctoral thesis was the evaluation of the combined bioimpedance (BI) and electromyography (EMG) measurement system that was developed within the research project BigDysPro. In particular, it should be examined whether the system can be used in the diagnosis and therapy of swallowing disorders as an independent measurement system and in the context of a swallowing neuroprosthesis. Several studies were conducted with healthy subjects to assess the reproducibility of the measurements, the distinction of swallowing from head movements, and the influence of different factors (i.e. the subject's gender as well as amount, consistency, and conductivity of the food) on the bioimpedance and electromyography. In additional experiments with patients, the influence of the electrode type, i.e. surface vs. needle electrodes, was examined. Furthermore, patients were examined with FEES and VFSS in parallel measurements with the new system. Thereby, the correlation of the BI and EMG signals with movements of anatomical structures (VFSS) and with the swallowing quality (FEES) was assessed. In these studies, 31 healthy subjects with 1819 swallows and 60 patients with 715 swallows were examined. The measured signals show a typical, reproducable run of the curve, that correlates with the anatomical and functional alterations observed by videofluoroscopy during the pharyngeal phase of swallowing (r > 0, 7). From the curve of the bioimpedance, features were extracted to assess the quality of swallowing. These features were demonstrated to correlate with physiological phenomena, such as delayed laryngeal closure and larynx elevation. Therefore, they were used to assess the swallow quality in accordance with fiberoptic endoscopic examination of swallowing. Significant differences were found in the measurement signals of swallows and head movements, as well as in the signals from different food amounts and consistencies. In contrast, the conductivity of the food, the gender of the subjects, and the type of electrodes had no significant effect on the curve of the bioimpedance and the electromyography. From the results of the evaluation, it is concluded that the combined bioimpedance and electromyography measurement system represents a novel, non-invasive tool. It enables the reproducible assessment of the pharyngeal phase of swallowing. In diagnosis, the system might be used, e.g., in long-time measurements for the assessment of swallowing frequency and quality. In therapy, the method can be implemented in a swallowing neuroprosthesis or might be used in a biofeedback system. T3 - Spektrum Patholinguistik - Schriften - 7 KW - pharyngale Schluckphase KW - Schluckstörungen KW - Bioimpdanz KW - EMG KW - pharyngeal phase of swallowing KW - dysphagia KW - bioimpedance KW - emg Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69589 SN - 978-3-86956-284-1 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER -