TY - THES A1 - Röhl, Vera Regine T1 - "Es gibt kein Himmelreich auf Erden" : Heinrich Margulies : ein säkularer Zionist Y1 - 2014 SN - 978-3-8260-5421-1 PB - Königshausen & Neumann CY - Würzburg ER - TY - THES A1 - Muksin, Umar T1 - A fault-controlled geothermal system in Tarutung (North Sumatra, Indonesia)investigated by seismological analysis N2 - The seismic structure (Vp, Vp/Vs, and Qp anomalies) contributes to the physical properties and the lithology of rocks and possible fluid distribution in the region. The Vp model images the geometry of the Tarutung and the Sarulla basins. Both basins have a depth of around 2.0 km. High Vp/Vs and high attenuation (low Qp) anomalies are observed along the Sarulla graben associated with a weak zone caused by volcanic activities along the graben. Low Vp/Vs and low conductivity anomalies are found in the west of the Tarutung basin. This anomaly is interpreted as dry, compact, and rigid granitic rock in the region as also found by geological observations. Low Vp, high Vp/Vs and low Qp anomalies are found at the east of the Tarutung basin which appear to be associated with the three big geothermal manifestations in Sipoholon, Hutabarat, and Panabungan area. These anomalies are connected with high Vp/Vs and low Qp anomalies below the Tarutung basin at depth of around 3 - 10 km. This suggests that these geothermal manifestations are fed by the same source of the hot fluid below the Tarutung basin. The hot fluids from below the Tarutung basin propagate to the more dilatational and more permeable zone in the northeast. Granite found in the west of the Tarutung basin could also be abundant underneath the basin at a certain depth so that it prevents the hot fluid to be transported directly to the Tarutung basin. High seismic attenuation and low Vp/Vs anomalies are found in the southwest of the Tarutung basin below the Martimbang volcano. These anomalies are associated with hot rock below the volcano without or with less amount of partial melting. There is no indication that the volcano controls the geothermal system around the Tarutung basin. The geothermal resources around the Tarutung basin is a fault-controlled system as a result of deep circulation of fluids. Outside of the basin, the seismicity delineation and the focal mechanism correlate with the shape and the characteristics of the strike-slip Sumatran fault. Within the Tarutung basin, the seismicity is distributed more broadly which coincides with the margin of the basin. An extensional duplex system in the Tarutung basin is derived from the seismicity and focal mechanism analysis which is also consistent with the geological observations. The vertical distribution of the seismicity suggests the presence of a negative flower structure within the Tarutung basin. N2 - Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt. T2 - Seismologische Untersuchungen eines Störungs-kontrollierten geothermischen Systems in Tarutung (Nord-Sumatra, Indonesien) KW - Tarutung KW - Sumatra Störung KW - Absorptionseigenschaften KW - seismische Geschwindigkeiten KW - Tarutung KW - Sumatra fault KW - attenuation tomography KW - velocity structure Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72065 ER - TY - THES A1 - Kamprath, Martin T1 - A microfoundations perspectives on fresight and business models BT - Competence development and business model design in times of digital industry transformation Y1 - 2014 ER - TY - THES A1 - Mauri, Marco T1 - A model for sigma factor competition in bacterial cells N2 - Bacteria respond to changing environmental conditions by switching the global pattern of expressed genes. In response to specific environmental stresses the cell activates several stress-specific molecules such as sigma factors. They reversibly bind the RNA polymerase to form the so-called holoenzyme and direct it towards the appropriate stress response genes. In exponentially growing E. coli cells, the majority of the transcriptional activity is carried out by the housekeeping sigma factor, while stress responses are often under the control of alternative sigma factors. Different sigma factors compete for binding to a limited pool of RNA polymerase (RNAP) core enzymes, providing a mechanism for cross talk between genes or gene classes via the sharing of expression machinery. To quantitatively analyze the contribution of sigma factor competition to global changes in gene expression, we develop a thermodynamic model that describes binding between sigma factors and core RNAP at equilibrium, transcription, non-specific binding to DNA and the modulation of the availability of the molecular components. Association of housekeeping sigma factor to RNAP is generally favored by its abundance and higher binding affinity to the core. In order to promote transcription by alternative sigma subunits, the bacterial cell modulates the transcriptional efficiency in a reversible manner through several strategies such as anti-sigma factors, 6S RNA and generally any kind of transcriptional regulators (e.g. activators or inhibitors). By shifting the outcome of sigma factor competition for the core, these modulators bias the transcriptional program of the cell. The model is validated by comparison with in vitro competition experiments, with which excellent agreement is found. We observe that transcription is affected via the modulation of the concentrations of the different types of holoenzymes, so saturated promoters are only weakly affected by sigma factor competition. However, in case of overlapping promoters or promoters recognized by two types of sigma factors, we find that even saturated promoters are strongly affected. Active transcription effectively lowers the affinity between the sigma factor driving it and the core RNAP, resulting in complex cross talk effects and raising the question of how their in vitro measure is relevant in the cell. We also estimate that sigma factor competition is not strongly affected by non-specific binding of core RNAPs, sigma factors, and holoenzymes to DNA. Finally, we analyze the role of increased core RNAP availability upon the shut-down of ribosomal RNA transcription during stringent response. We find that passive up-regulation of alternative sigma-dependent transcription is not only possible, but also displays hypersensitivity based on the sigma factor competition. Our theoretical analysis thus provides support for a significant role of passive control during that global switch of the gene expression program and gives new insights into RNAP partitioning in the cell. N2 - Bakterien reagieren auf Aenderungen in ihren Umgebungsbedingungen indem sie global das Genexpressionsprogramm umschalten. Die Zelle aktiviert, als spezifische Reaktion auf Stressbedingungen, mehrere charakteristische Molekuele wie zum Beispiel die Sigmafaktoren. Diese binden reversibel an die RNA Polymerase (RNAP), mit der sie einen Komplex bilden das sogenannte Holoenzym und steuern sie als Reaktion auf den Stress zu den entsprechenden Genen. In exponentiell wachsenden E. Coli Zellen wird das Meiste der Transkription von einem sogenannten Haushaltssigmafaktor organisiert. Wohingegen Stressreaktionen haeufig von alternativen Sigmafaktoren kontrolliert werden. Die verschiedenen Sigmafaktoren konkurrieren um einen begrenzten Pool von RNAP Coreenzymen, womit die Expression einzelner Gene oder Genklassen beeinflusst wird, da sie sich die Maschienerie teilen. Um den Beitrag der Sigmafaktorkonkurrenz an der gesamten Veraenderung der Genexpression quantitativ zu analysieren, haben wir ein theoretisches Modell entwickelt, welches das Binden von Sigmafaktoren mit RNAP Coreenzymen im gleichgewicht, die Transkription, das nichtspezifische Binden an die DNA sowie die Modulation verfuegbarer molekularer Komponenten beschreibt. Normalerweise wird die Assoziation des Haushaltssigmafaktors mit dem RNAP Coreenzym beguenstigt durch dessen grosse Anzahl und die hohe Bindungsaffinitaet. Daher nutzen bakterielle Zellen verschiedene, reversibele Strategien um die Transkription durch alternative Holoenzyme zu foerdern. Dazu gehoeren Anti-Sigmafaktoren, 6S RNA und generell beliebige Transkriptionsregulatoren (z.B.: Aktivatoren oder Repressoren). Sie beeinflussen das Transkriptionsprogramm der Zelle indem sie das Resultat der Sigmafaktorkonkurrenz um die RNAP Coreenzyme zugunsten eines der Sigmafaktoren verschieben. Das Modell kann validiert werden durch Vergleiche mit in vitro Konkurrenzexperimenten, die exzellente uebereinstimmung zeigen. Wir koennen feststellen, dass die Transkription durch Konzentrationsaenderungen der verschiedenen Holoenzyme beeinflusst wird, daher ist der Effekt der Sigmafaktorkonkurrenz klein bei saturierten Promotoren. Was sich jedoch aendert bei sich ueberlappenden Promotoren oder Promotoren, die von zwei verschiedenen Sigmafaktoren erkannt werden. In diesen Faellen sehen wir einen grossen Effekt. Transkription fuehrt zu effektiv abgesekten Affinitaet zwischen den zugehoerigen Sigmafaktoren und den RNAP Coreenzymen, was zu komplizierten Verhalten fuehrt und die Frage aufwirft, inwieweit in vitro gemessenen Effekte in der Zelle wiederzufinden sind. Wir koennen den Einfluss nichtspezifischen Bindens der RNAPs, der Sigmafaktoren und der Holoenzyme an die DNA abschaetzen. Als letztes analysieren wir die Konkurrenz waehrend der "Stringent Response". Hierbei wird die Transkription der ribosomalen RNA unterbrochen was die Anzahl der freien RNAP Coreenzyme stark erhoeht. Wir sehen, dass das passive Hochregeln des alternativen sigmafaktorabhaengigen Transkriptionsprogramms durch Sigmafaktorkokurrenz moeglich und sogar hypersensitiv ist. Unsere theoretische Analyse zeigt, dass die passive Kontrolle in diesem Fall eine signifikante Rolle im globalen umschalten des Transkriptionsprogramms spielt und liefert neue Erkenntnisse zur RNAP Partitionierung in der Zelle. T2 - Ein Modell für die Konkurrenz zwischen Sigmafaktoren in Bakterienzellen KW - biophysics KW - systems biology KW - gene regulation KW - stress response KW - Biophysik KW - Systembiologie KW - Genregulation KW - Stressantwort Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72098 ER - TY - THES A1 - D'Agata, Valeria Costanza T1 - A partire dalla Somaestetica di Shusterman T1 - Von der Somästhetik von Shusterman BT - una riflessione sul corpo BT - eine Reflexion über den Körper/Leib N2 - Con la sua proposta di una Somaestetica, articolata fondamentalmente in analitica, pragmatica e pratica, Richard Shusterman intende in primo luogo fornire e creare una cornice metodologica, un orientamento unitario che sia in grado di rintracciare, ricostruire e portare a manifestazione - all’interno di eterogenee riflessioni teoriche e pratiche somatiche - la comune esigenza di ridare luce alla dimensione corporea come modo primario di essere nel mondo. Recuperando l’accezione baumgarteniana di Aesthetica come gnoseologia inferiore, arte dell’analogo della ragione, scienza della conoscenza sensibile, la somaestetica intende dare nuovo impulso alla più profonda radice di estetica e filosofia che coglie la vita nel suo processo di metamorfosi e rigenerazione continua, in quel respiro vitale che, per quanto possa diventare cosciente, non è mai totalmente afferrabile dalla ragione discorsiva, situandosi piuttosto in quello spazio primordiale in cui coscienza e corpo si coappartengono, in cui il soggetto non è ancora individualizzabile perché fuso con l’ambiente, non è totalmente privatizzabile perché intrinsecamente plasmato dal tessuto sociale cui egli stesso conferisce dinamicamente forma. A partire dunque dalla rivalutazione del concetto di Aisthesis la disciplina somaestetica mira ad una intensificazione di sensorialità, percezione, emozione, commozione, rintracciando proprio nel Soma la fonte di quelle facoltà “inferiori” irriducibili a quelle puramente intellettuali, che permettono di accedere alle dimensioni qualitative dell’esperienza, di portare a manifestazione e far maturare l’essere umano come essere indivisibile che non si lascia incontrare da un pensiero che ne rinnega l’unitarietà in nome di fittizie e laceranti distinzioni dicotomiche. Nel corpo infatti si radicano in modo silente regole, convenzioni, norme e valori socioculturali che determinano e talvolta limitano la configurazione ed espressione di sensazioni, percezioni, cognizioni, pensieri, azioni, volizioni, disposizioni di un soggetto da sempre inserito in una Mitwelt (mondo comune), ed è allora proprio al corpo che bisogna rivolgersi per riconfigurare più autentiche modalità di espressione del soggetto che crea equilibri dinamici per mantenere una relazione di coerenza con il più ampio contesto sociale, culturale, ambientale. L’apertura al confronto con eterogenee posizioni filosofiche e l’intrinseca multidisciplinarietà spiegano la centralità nel contemporaneo dibattito estetologico internazionale della Somaestetica che, rivolgendosi tanto ad una formulazione teorica quanto ad una concreta applicazione pratica, intende rivalutare il soma come corporeità intelligente, senziente, intenzionale e attiva, non riducibile all’accezione peccaminosa di caro (mero corpo fisico privo di vita e sensazione). Attraverso la riflessione e la pratica di tecniche di coscienza somatica si portano in primo piano i modi in cui il sempre più consapevole rapporto con la propria corporeità come mediatamente esperita e immediatamente vissuta, sentita, offre occasioni autentiche di realizzazione progressiva di sé innanzitutto come persone, capaci di autocoltivazione, di riflessione cosciente sulle proprie abitudini incorporate, di ristrutturazione creativa di sé, di intensificata percezione e apprezzamento sensoriale sia nel concreto agire quotidiano, sia nella dimensione più propriamente estetologica di ricezione, fruizione e creazione artistica. L’indirizzo essenzialmente pragmatista della riflessione di Shusterman traccia così una concezione fondamentalmente relazionale dell’estetica in grado di porsi proprio nel movimento e nel rapporto continuamente diveniente di vera e propria trasformazione e passaggio tra le dimensioni fisiche, proprio-corporee, psichiche e spirituali del soggetto la cui interazione, ed il cui reciproco riversarsi le une nelle altre, può risultare profondamente arricchito attraverso una progressiva e sempre crescente consapevolizzazione della ricchezza della dimensione corporea in quanto intenzionale, percettiva, senziente, volitiva, tanto quanto vulnerabile, limitante, caduca, patica. Il presente lavoro intende ripercorrere ed approfondire alcuni dei principali referenti di Shusterman, focalizzandosi prevalentemente sulla radice pragmatista della sua proposta e sul confronto con il dibattito di area tedesca tra estetica, antropologia filosofica, neofenomenologia e antropologia medica, per riguadagnare una nozione di soma che proprio a partire dal contrasto, dall’impatto irriducibile con la potenza annullante delle situazioni limite, della crisi possa acquisire un più complesso e ricco valore armonizzante delle intrinseche e molteplici dimensioni che costituiscono il tessuto della soggettività incarnata. In particolare il primo capitolo (1. Somaestetica) chiarisce le radici essenzialmente pragmatiste della proposta shustermaniana e mostra come sia possibile destrutturare e dunque riconfigurare radicati modi di esperienza, rendendo coscienti abitudini e modi di vivere che si fissano a livello somatico in modo per lo più inavvertito. Il confronto con la nozione di Habitus, di cui Pierre Bourdieu mette brillantemente in luce l’invisibile e socialmente determinata matrice somatica, lascia scorgere come ogni manifestazione umana sia sostenuta dall’incorporazione di norme, credenze, valori che determinano e talvolta limitano l’espressione, lo sviluppo, persino le predisposizioni e le inclinazioni degli individui. Ed è proprio intervenendo a questo livello che si può restituire libertà alle scelte e aprirsi così alle dimensioni essenzialmente qualitative dell’esperienza che, nell’accezione deweyana è un insieme olistico unitario e coeso che fa da sfondo alle relazioni organismo-ambiente, un intreccio inestricabile di teoria e prassi, particolare e universale, psiche e soma, ragione ed emozione, percettivo e concettuale, insomma quell’immediata conoscenza corporea che struttura lo sfondo di manifestazione della coscienza. N2 - Mit seinem Vorschlag für eine Somästhetik, grundsätzlich in eine analytische, pragmatische und praktische unterteilt, beabsichtigt Richard Shusterman in erster Linie einen methodischen Rahmen zu bieten und zu schaffen, d. h. einen einheitlichen Ansatz, der in der Lage ist, das gemeinsame Bedürfnis zu verfolgen und ans Licht zu bringen - in heterogenen theoretischen Überlegungen und somatischen Praktiken - die Körper-Leiblichkeit als primäre Art des Seins in der Welt wiederherzustellen. Durch die Wiedergewinnung der Bedeutung der Aesthetica von Baumgarten als gnoseologia inferior, ars analogi rationis, scientia cognitionis sensitiuae1, will die Somaästhetik die tiefste Wurzel der Ästhetik und der Philosophie wieder erneuern, die das Leben in seinem Prozess der ununterbrochenen Metamorphose und Regeneration erfasst, in diesem Atem des Lebens, der, inwieweit er sich dessen bewusst ist, von der diskursiven Vernunft nie ganz begriffen wird, denn er befindet sich vielmehr im Ur- Raum, in dem Bewusstsein und Körperlichkeit zusammengehören, in dem das Subjekt noch nicht individualisierbar ist, weil es mit der Umwelt verschmolzen ist; es ist nicht vollständig privatisierbar, weil es untrennbar von der Sozialstruktur ist, der es selbst dynamisch Form gibt. Von der Neubewertung des Begriffes „Aisthesis“ sucht die somästhetische Disziplin eine Intensivierung der Sinne, der Wahrnehmung, der Emotionen, des Gefühls, um tatsächlich im Soma die Quelle der „minderwertigen“ Fähigkeiten (nicht reduzierbar auf rein intellektuelle) zu verfolgen, die es erlauben, mit den qualitativen Dimensionen der Erfahrung in Kontakt zu treten, den einheitlichen Menschen, der sich nicht dazu eignet, von einem dichotomen Gedanken trennen zu lassen, als unteilbares Wesen aufzudecken und reifen zu lassen. Im Körper schlagen unbewusst Regeln, Konventionen, Normen und sozio-kulturelle Werte Wurzeln, die die Konfiguration und den Ausdruck von Gefühlen, Wahrnehmungen, Wissen, Denken, Handeln, Willensakten, Bestimmungen von einem Subjekt, das seit jeher in eine Mitwelt eingefügt ist, bestimmen und manchmal begrenzen. Daraus folgt, dass wir unsere Aufmerksamkeit auf den Körper richten sollen, um die authentischste Ausdrucksweise des Subjekts, das ein dynamisches Gleichgewicht schafft, um eine Beziehung der Kohärenz mit der breiteren sozialen, kulturellen, ökologischen Kontext zu halten, neu zu konfigurieren. Die Öffnung für den Vergleich mit heterogenen philosophischen Positionen und dem inhärenten multidisziplinären Charakter2 erklärt die Zentralität der Somästhetik in der zeitgenössischen internationalen ästhetischen Debatte: durch eine theoretische Formulierung und eine konkrete praktische Anwendung beabsichtigt sie Soma neu zu bewerten, als intelligente, fühlende, vorsätzliche und aktive Körperlichkeit, nicht reduzierbar auf die sündige Bedeutung von caro (der bloße physische Körper, ohne Leben und Empfindungen). Durch Reflexion und Praxis der Techniken des Körperbewusstseins rücken die Modalitäten in den Vordergrund, in denen das stets bewusstere Verhältnis zu der eigenen Leiblichkeit, als mittelbar erlebt und unmittelbar gelebt, gefühlt wird, authentische Chancen für die progressive Realisierung des eigenen Ich bietet, d. h. zuallererst als Personen, die in der Lage sind, Selbst-Sorge zu tragen, die wissen, wie sie bewusst über ihre eigenen verkörperten Gewohnheiten reflektieren können, wie sie kreativ das Selbst umstrukturieren können, wie sie eine Intensivierung der Wahrnehmung und der sinnlichen Wertschätzung sowohl in konkreten täglichen Handlungen, als auch in der spezifischeren ästhetischen Dimension des künstlerischen Schaffens und Genießens erleben können3. Die wesentliche pragmatische Richtung der Reflexion von Shusterman umreißt eine grundlegend relationale Betrachtung der Ästhetik, die in der Lage ist, sich direkt in der Bewegung und in der sich ständig verändernden Beziehung der wirklichen Transformation und des Übergangs zwischen den körperlichen, leiblichen, mentalen und spirituellen Aspekten des Subjektes anzusiedeln. Die Interaktion zwischen diesen Dimensionen, die aufeinander verweisen, kann tief durch ein fortschreitendes und wachsendes Bewusstsein des Reichtums der leiblichen Dimension als absichtlich, wahrnehmend, fühlend, wollend, so wie vergänglich, verletzlich, einschränkend, pathisch angereichert werden. Die vorliegende Arbeit will auf einige der wichtigsten Themen, auf die sich Shusterman bezieht, eingehen und vertiefen, insbesondere die pragmatische Wurzel seines Vorschlags und der Vergleich mit der deutschen Debatte zur Ästhetik, philosophischen Anthropologie, medizinischen Anthropologie und neuen Phänomenologie, um wieder eine Vorstellung von Soma zu bekommen, beginnend von dem Kontrast, von der Wirkung mit der Kraft der unnachgiebigen Aufhebung und extremer Krisensituationen, eine komplexe und reiche Harmonisierung der inneren Werte und der vielfältigen Dimensionen, die das Gewebe der verkörperten Subjektivität bilden. Vor allem das erste Kapitel (1. Somaestetica - Somästhetik) verdeutlicht die Wurzeln des im wesentlichen pragmatischen Vorschlags von Shusterman und zeigt, wie es möglich ist, verwurzelte Erlebnisweisen zu dekonstruieren und neu zu konfigurieren, um Gewohnheiten und Lebensweisen, die sich auf der somatischen Ebene in den meisten Fällen unbemerkt ansiedeln, bewusst zu machen. Der Vergleich mit dem Begriff des Habitus, den Pierre Bourdieu brillant anstellt, beleuchtet den unsichtbaren und sozial bestimmten somatischen Ursprung; er lässt erkennen, wie jede menschliche Äußerung durch die Verkörperung von Normen, Überzeugungen und Werte unterstützt wird, wie diese Regeln den Ausdruck, die Entwicklung und auch die Veranlagungen und Neigungen des Einzelnen bestimmen und manchmal begrenzen. Und es ist durch ein Eingreifen eben auf dieser Ebene möglich, die Freiheit an Wahlen zurückzugeben und sich den wesentlich qualitativen Dimensionen der Erfahrung zu öffnen, die (im Sinne von Dewey) eine ganzheitliche und zusammenhängende Einheit als ein Hintergrund der Organismus-Umwelt-Beziehungen ist, d. h. eine unentwirrbare Verwicklung von Theorie und Praxis, im besonderen und im allgemeinen, Psyche und Soma, Vernunft und Gefühl, wahrnehmend und begriffsmäßig, kurz das unmittelbare körper-leibliche Wissen, das den Hintergrund für die Bewusstseinsäußerung bildet. KW - corpo fisico e corpo vissuto KW - avere ed essere corpo KW - Somaestetica KW - Somästhetik KW - Körper-Leib Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72650 ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - Yadavalli, Nataraja Sekhar T1 - Advances in experimental methods to probe surface relief grating formation mechanism in photosensitive materials T1 - Entstehung von Oberflächengittern in lichtempfindlichen Materialien N2 - When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film. N2 - Azobenzolhaltige Polymere gehören zu einer Klasse funktionaler Materialien, bei denen durch ein äußeres Strahlungsfeld eine starke mechanische Reaktion ausgelöst werden kann. Durch die Bindung an das Polymerrückgrat können die Azobenzole, die unter UV-Belichtung eine Photoisomerisierung ausführen, was zum Teil drastische Effekte zur Folge hat. Unter Belichtung mit Intensitätsmustern, d.h. mit räumlich variierender Verteilung der Polarisation oder der Intensität des einfallenden Lichts verändert sich die Topographie der azobenzolhaltigen Filme, was zur Bildung von Oberflächengittern (engl. Surface Relief Gratings, SRG) führt. In dieser Arbeit wurde eine neue Methode vorgeschlagen, bei der das Verhalten elastischer/morphologischer Eigenschaften unter verschiedenen Belichtungsbedingungen, d.h. mit unterschiedlicher Verteilung der Polarisation und der Intensität in situ lokal als Funktion der Position entlang der SRG aufgenommen werden kann. Außerdem wurde hier vorgeschlagen, opto-mechanische Spannungen, die innerhalb der photosensitiven Polymerfilme während der Belichtung entstehen, mit Hilfe dünner aufgebrachter metallischen Schichten abzubilden und zu analysieren. KW - Azobenzolhaltige Polymerfilme KW - Oberflächengitter KW - In-situ Rasterkraftmikroskopie KW - Opto-mechanische Spannungen KW - Metall/Graphen/Polymer Grenzfläch KW - azobenzene polymer films KW - surface relief grating KW - in-situ atomic force microscopy KW - opto-mechanical stresses KW - metal/polymer interfaces Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71213 ER - TY - THES A1 - Schmidt, Lukas T1 - Aerosols and boundary layer structure over Arctic sea ice based on airborne lidar and dropsonde measurements T1 - Aerosol und Grenzschichtstruktur über arktischem Meereis anhand von Flugzeuggetragenen Lidar- und Dropsonden- Messungen N2 - The atmosphere over the Arctic Ocean is strongly influenced by the distribution of sea ice and open water. Leads in the sea ice produce strong convective fluxes of sensible and latent heat and release aerosol particles into the atmosphere. They increase the occurrence of clouds and modify the structure and characteristics of the atmospheric boundary layer (ABL) and thereby influence the Arctic climate. In the course of this study aircraft measurements were performed over the western Arctic Ocean as part of the campaign PAMARCMIP 2012 of the Alfred Wegener Institute for Polar and Marine Research (AWI). Backscatter from aerosols and clouds within the lower troposphere and the ABL were measured with the nadir pointing Airborne Mobile Aerosol Lidar (AMALi) and dropsondes were launched to obtain profiles of meteorological variables. Furthermore, in situ measurements of aerosol properties, meteorological variables and turbulence were part of the campaign. The measurements covered a broad range of atmospheric and sea ice conditions. In this thesis, properties of the ABL over Arctic sea ice with a focus on the influence of open leads are studied based on the data from the PAMARCMIP campaign. The height of the ABL is determined by different methods that are applied to dropsonde and AMALi backscatter profiles. ABL heights are compared for different flights representing different conditions of the atmosphere and of sea ice and open water influence. The different criteria for ABL height that are applied show large variation in terms of agreement among each other, depending on the characteristics of the ABL and its history. It is shown that ABL height determination from lidar backscatter by methods commonly used under mid-latitude conditions is applicable to the Arctic ABL only under certain conditions. Aerosol or clouds within the ABL are needed as a tracer for ABL height detection from backscatter. Hence an aerosol source close to the surface is necessary, that is typically found under the present influence of open water and therefore convective conditions. However it is not always possible to distinguish residual layers from the actual ABL. Stable boundary layers are generally difficult to detect. To illustrate the complexity of the Arctic ABL and processes therein, four case studies are analyzed each of which represents a snapshot of the interplay between atmosphere and underlying sea ice or water surface. Influences of leads and open water on the aerosol and clouds within the ABL are identified and discussed. Leads are observed to cause the formation of fog and cloud layers within the ABL by humidity emission. Furthermore they decrease the stability and increase the height of the ABL and consequently facilitate entrainment of air and aerosol layers from the free troposphere. N2 - Die Verteilung von Meereis und offenem Wasser hat einen starken Einfluss auf die Atmosphäre über dem arktischen Ozean. Eisrinnen (sog. Leads) verursachen konvektive Flüsse von latenter und sensibler Wärme und führen zum Eintrag von Aerosolpartikeln in die Atmosphäre. Dadurch führen sie zum vermehrten Auftreten von Wolken und modifizieren die Struktur und die Eigenschaften der atmosphärischen Grenzschicht (ABL), wodurch das arktische Klima beeinflusst wird. Im Rahmen der Messkampagne PAMARCMIP 2012 des Alfred-Wegener-Instituts (AWI) wurden als Teil dieser Arbeit über dem westlichen arktischen Ozean Flugzeugmessungen durchgeführt. Mithilfe des nach unten gerichteten Airborne Mobile Aerosol Lidar (AMALi) wurde die Rückstreuung von Aerosolen und Wolken in der unteren Troposphäre und ABL gemessen. Dropsonden wurden verwendet, um Profile meteorologischer Größen zu erhalten. Zudem wurden in situ Messungen von Aerosoleigenschaften, meteorologischen Variablen und der Turbulenz durchgeführt. In dieser Arbeit werden die Eigenschaften der ABL über arktischem Meereis basierend auf den Daten der PAMARCMIP Kampagne untersucht. Dabei liegt der Fokus auf dem Einfluss offener Leads auf die ABL. Aus den gewonnenen Dropsondendaten und AMALi Rückstreuprofilen wird die Höhe der ABL mithilfe verschiedener Methoden bestimmt. Die für verschiedene Messflüge und somit unterschiedliche atmosphärische Bedingungen sowie Meereisverteilungen berechneten ABL Höhen werden miteinander verglichen, und somit der Einfluss von offenem Wasser auf die ABL untersucht. Die verschiedenen Methoden zur Bestimmung der ABL Höhe führen zu unterschiedlichen Ergebnissen, je nach Eigenschaften der ABL und ihrer Geschichte. Es wird gezeigt, dass die Methoden für die ABL Höhen-Bestimmung aus der Lidar Rückstreuung, die gewöhnlich für die mittleren Breiten verwendet werden, nur bedingt für arktische Bedingungen geeignet ist. Um die ABL Höhe aus der Rückstreuung ableiten zu können, müssen Aerosole oder Wolken in der Grenzschicht als Tracer vorhanden sein. Dazu ist eine Aerosolquelle nahe der Oberfläche notwendig, welche typischerweise unter dem Einfluss von offenem Wasser und konvektiven Bedingungen vorliegt. Dennoch ist es nicht immer möglich, die aktuelle Grenzschicht von residualen Schichten zu unterscheiden. Stabile Grenzschichten sind im Allgemeinen schwer zu detektieren. Um die Komplexität der arktischen Grenzschicht und die beteiligten Prozesse zu veranschaulichen, werden vier Fallstudien detailliert analysiert, welche jeweils eine Momentaufnahme des Zusammenspiels von Atmosphäre und Meereis oder Wasseroberfläche darstellen. Der Einfluss von Leads und offenem Wasser auf Aerosol und Wolken in der ABL werden identifiziert und diskutiert. Die Bildung von Wolken- und Nebelschichten, verursacht durch den Feuchteeintrag über offenen Leads, wird beobachtet. Zudem verringern leads die Stabilität der ABL, führen zu einer Zunahme ihrer Höhe und begünstigen dadurch Entrainment von Luft und Aerosolschichten aus der freien Troposphäre. KW - polar KW - atmosphere KW - AMALi KW - Polar 5 KW - lead KW - polar KW - Atmosphäre KW - AMALi KW - Polar 5 KW - Eisrinne Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75076 ER - TY - THES A1 - Busching, Robert T1 - Affektive und kognitive Desensibilisierung als Konsequenz von Mediengewaltkonsum : eine experimentelle Untersuchung auf Basis lerntheoretischer Überlegungen T1 - Affective and cognitive desensitization as a consequence of violent media exposure : an experimental investigation based on learning theories N2 - NutzerInnen von gewalthaltigen Medien geben einerseits oftmals zu, dass sie fiktionale, gewalthaltige Medien konsumieren, behaupten jedoch gleichzeitig, dass dies nicht ihr Verhalten außerhalb des Medienkontexts beeinflusst. Sie argumentieren, dass sie leicht zwischen Dingen, die im fiktionalen Kontext und Dingen, die in der Realität gelernt wurden, unterscheiden können. Im Kontrast zu diesen Aussagen zeigen Metanalysen Effektstärken im mittleren Bereich für den Zusammenhang zwischen Gewaltmedienkonsum und aggressivem Verhalten. Diese Ergebnisse können nur erklärt werden, wenn MediennutzerInnen gewalthaltige Lernerfahrungen auch außerhalb des Medienkontexts anwenden. Ein Prozess, der Lernerfahrungen innerhalb des Medienkontexts mit dem Verhalten in der realen Welt verknüpft, ist Desensibilisierung, die oftmals eine Reduktion des negativen Affektes gegenüber Gewalt definiert ist. Zur Untersuchung des Desensibilisierungsprozesses wurden vier Experimente durchgeführt. Die erste in dieser Arbeit untersuchte Hypothese war, dass je häufiger Personen Gewaltmedien konsumieren, desto weniger negativen Affekt zeigen sie gegenüber Bildern mit realer Gewalt. Jedoch wurde angenommen, dass diese Bewertung auf Darstellungen von realer Gewalt beschränkt ist und nicht bei Bildern ohne Gewaltbezug, die einen negativen Affekt auslösen, zu finden ist. Die zweite Hypothese bezog sich auf den Affekt während des Konsums von Mediengewalt. Hier wurde angenommen, dass besonders Personen, die Freude an Gewalt in den Medien empfinden weniger negativen Affekt gegenüber realen Gewaltdarstellungen zeigen. Die letzte Hypothese beschäftigte sich mit kognitiver Desensibilisierung und sagte vorher, dass Gewaltmedienkonsum zu einem Transfer von Reaktionen, die normalerweise gegenüber gewalthaltigen Reizen gezeigt werden, auf ursprünglich neutrale Reize führt. Das erste Experiment (N = 57) untersuchte, ob die habituelle Nutzung von gewalthaltigen Medien den selbstberichteten Affekt (Valenz und Aktivierung) gegenüber Darstellungen von realer Gewalt und nichtgewalthaltigen Darstellungen, die negativen Affekt auslösen, vorhersagt. Die habituelle Nutzung von gewalthaltigen Medien sagte weniger negative Valenz und weniger allgemeine Aktivierung gegenüber gewalthalten und nichtgewalthaltigen Bildern vorher. Das zweite Experiment (N = 103) untersuchte auch die Beziehung zwischen habituellem Gewaltmedienkonsum und den affektiven Reaktionen gegenüber Bildern realer Gewalt und negativen affektauslösenden Bildern. Als weiterer Prädiktor wurde der Affekt beim Betrachten von gewalthaltigen Medien hinzugefügt. Der Affekt gegenüber den Bildern wurde zusätzlich durch psychophysiologische Maße (Valenz: C: Supercilii; Aktivierung: Hautleitreaktion) erhoben. Wie zuvor sagte habitueller Gewaltmedienkonsum weniger selbstberichte Erregung und weniger negative Valenz für die gewalthaltigen und die negativen, gewalthaltfreien Bilder vorher. Die physiologischen Maßen replizierten dieses Ergebnis. Jedoch zeigte sich ein anderes Muster für den Affekt beim Konsum von Gewalt in den Medien. Personen, die Gewalt in den Medien stärker erfreut, zeigen eine Reduktion der Responsivität gegenüber Gewalt auf allen vier Maßen. Weiterhin war bei drei dieser vier Maße (selbstberichte Valenz, Aktivität des C. Supercilii und Hautleitreaktion) dieser Zusammenhang auf die gewalthaltigen Bilder beschränkt, mit keinem oder nur einem kleinen Effekt auf die negativen, aber nichtgewalthaltigen Bilder. Das dritte Experiment (N = 73) untersuchte den Affekt während die Teilnehmer ein Computerspiel spielten. Das Spiel wurde eigens für dieses Experiment programmiert, sodass einzelne Handlungen im Spiel mit der Aktivität des C. Supercilii, dem Indikator für negativen Affekt, in Bezug gesetzt werden konnten. Die Analyse des C. Supercilii zeigte, dass wiederholtes Durchführen von aggressiven Spielzügen zu einem Rückgang von negativen Affekt führte, der die aggressiven Spielhandlungen begleitete. Der negative Affekt während gewalthaltiger Spielzüge wiederum sagte die affektive Reaktion gegenüber Darstellungen von gewalthaltigen Bildern vorher, nicht jedoch gegenüber den negativen Bildern. Das vierte Experiment (N = 77) untersuchte kognitive Desensibilisierung, die die Entwicklung von Verknüpfungen zwischen neutralen und aggressiven Kognitionen beinhaltete. Die Teilnehmer spielten einen Ego-Shooter entweder auf einem Schiff- oder einem Stadtlevel. Die Beziehung zwischen den neutralen Konstrukten (Schiff/Stadt) und den aggressiven Kognitionen wurde mit einer lexikalischen Entscheidungsaufgabe gemessen. Das Spielen im Schiff-/Stadt-Level führte zu einer kürzen Reaktionszeit für aggressive Wörter, wenn sie einem Schiff- bzw. Stadtprime folgten. Dies zeigte, dass die im Spiel enthaltenen neutralen Konzepte mit aggressiven Knoten verknüpft werden. Die Ergebnisse dieser vier Experimente wurden diskutiert im Rahmen eines lerntheoretischen Ansatzes um Desensibilisierung zu konzeptualisieren. N2 - Users of violent media often state that they consume fictional violent media and claim that this does not influence their behavior outside of the media context. Media users reason that they can easily distinguish between things learned in a fictional context and things learned in reality. In contrast to these claims, meta-analyses report medium-sized effects between media violence consumption and aggressive behavior. These effects can only be explained if media users also apply learning experiences from the media outside the media context. One of the processes linking learning experiences in the media context to behavior in the real word is desensitization, which is often defined as a reduction of negative affect towards violence. To investigate the process of desensitization, four experiments were conducted. The first hypothesis investigated in these experiments was that persons who have a higher level of violent media exposure show less negative affect towards depictions of real violence compared to persons with a lower level. However, it was assumed that this reduction in reaction would be limited to depictions of real violence and would not be found in response to depictions of nonviolent pictures electing negative affect. The second hypothesis referred to the role of affect experienced during exposure to media depictions of violence, assuming that especially people who enjoy the violence while consuming the media show less negative affect towards depictions of real violence. The final hypothesis addressed cognitive desensitization effects and predicted that media violence use leads to transfer effects from responses to violent cues to initially neutral stimuli The first experiment (N = 57) examined to what extent the habitual use of media violence predicts the self-reported affect (Valence and Arousal) towards depictions of real violence and nonviolent pictures eliciting negative affect. Habitual media violence exposure predicted less negative valence and less arousal toward violent pictures and negative nonviolent pictures. The second experiment (N = 103) also examined the relationship between habitual media violence exposure and the affective reactions towards images of real violence as well as negative, nonviolent scenes. Additionally, affect while watching violent media was added as a second predictor. The affect toward the images was also obtained by psychophysical measures (Valence: activity of C. Supercilii; Activation: skin conductance). As in experiment 1, habitual media violence exposure predicted less self-reported negative valence and less self-reported arousal for the violent pictures and the negative nonviolent pictures. The physiological measures replicated this result. However, a different pattern emerged for the enjoyment of violent media. People who enjoyed violent media more showed a reduction of affective responsivity toward violence on all four different measures. Additionally, for three of the four measures (skin conductance, self-reported negative valence and the activity on the C. Supercilii) this relationship was limited to the violent pictures, with no or little effect on the negative, but nonviolent pictures. A third experiment (N = 73) studied affect while participants played a violent computer game. A game was specially programmed in which specific actions could be linked to the activity of the C. Supercilii, an indicator for negative affect. The analysis of the C. Supercilii showed that repeatedly performing aggressive actions during the game led to a decline in negative affect accompanying the aggressive actions. The negative affect during aggressive actions in turn predicted less negative affective responses to violent images of real-life violence but not to nonviolent, negative images. The fourth experiment (N=77) showed cognitive desensitization effects, which involved the formation of links between neutral and aggressive cognitions. Participants played a first-person shooter game either on a ship or a city level. The relationship between neutral constructs (ship/city) and aggressive cognitions was measured using a lexical decision task. Playing the game in a ship/city level led to shorter reaction time for aggressive words following ship/city primes respectively. This indicated that the neutral concepts introduced in the game had become associated with aggressive cognitions. The findings of these four experiments are discussed in terms of a learning theory approach to conceptualizing desensitization. KW - Mediengewalt KW - Desensibilisierung KW - Videospiele KW - physiologische Verfahren KW - Aggression KW - media violence KW - desensitization KW - video games KW - psychophysiological measures KW - aggression Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71360 ER - TY - THES A1 - Frenzel, Tom T1 - Aggression und Freiheit : eine Relektüre Hegels und Spinozas zu Grenzfragen der Psychologie Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Lindauer, T. Marius T1 - Algorithm selection, scheduling and configuration of Boolean constraint solvers N2 - Boolean constraint solving technology has made tremendous progress over the last decade, leading to industrial-strength solvers, for example, in the areas of answer set programming (ASP), the constraint satisfaction problem (CSP), propositional satisfiability (SAT) and satisfiability of quantified Boolean formulas (QBF). However, in all these areas, there exist multiple solving strategies that work well on different applications; no strategy dominates all other strategies. Therefore, no individual solver shows robust state-of-the-art performance in all kinds of applications. Additionally, the question arises how to choose a well-performing solving strategy for a given application; this is a challenging question even for solver and domain experts. One way to address this issue is the use of portfolio solvers, that is, a set of different solvers or solver configurations. We present three new automatic portfolio methods: (i) automatic construction of parallel portfolio solvers (ACPP) via algorithm configuration,(ii) solving the $NP$-hard problem of finding effective algorithm schedules with Answer Set Programming (aspeed), and (iii) a flexible algorithm selection framework (claspfolio2) allowing for fair comparison of different selection approaches. All three methods show improved performance and robustness in comparison to individual solvers on heterogeneous instance sets from many different applications. Since parallel solvers are important to effectively solve hard problems on parallel computation systems (e.g., multi-core processors), we extend all three approaches to be effectively applicable in parallel settings. We conducted extensive experimental studies different instance sets from ASP, CSP, MAXSAT, Operation Research (OR), SAT and QBF that indicate an improvement in the state-of-the-art solving heterogeneous instance sets. Last but not least, from our experimental studies, we deduce practical advice regarding the question when to apply which of our methods. N2 - Bool'sche Solver Technologie machte enormen Fortschritt im letzten Jahrzehnt, was beispielsweise zu industrie-relevanten Solvern auf der Basis von Antwortmengenprogrammierung (ASP), dem Constraint Satisfcation Problem (CSP), dem Erfüllbarkeitsproblem für aussagenlogische Formeln (SAT) und dem Erfüllbarkeitsproblem für quantifizierte boolesche Formeln (QBF) führte. Allerdings gibt es in all diesen Bereichen verschiedene Lösungsstrategien, welche bei verschiedenen Anwendungen unterschiedlich effizient sind. Dabei gibt es keine einzelne Strategie, die alle anderen Strategien dominiert. Das führt dazu, dass es keinen robusten Solver für das Lösen von allen möglichen Anwendungsprobleme gibt. Die Wahl der richtigen Strategie für eine neue Anwendung ist eine herausforderne Problemstellung selbst für Solver- und Anwendungsexperten. Eine Möglichkeit, um Solver robuster zu machen, sind Portfolio-Ansätze. Wir stellen drei automatisch einsetzbare Portfolio-Ansätze vor: (i) automatische Konstruktion von parallelen Portfolio-Solvern (ACPP) mit Algorithmen-Konfiguration, (ii) das Lösen des $NP$-harten Problems zur Algorithmen-Ablaufplanung (aspeed) mit ASP, und (iii) ein flexibles Algorithmen-Selektionsframework (claspfolio2), was viele Techniken von Algorithmen-Selektion parametrisiert implementiert und eine faire Vergleichbarkeit zwischen Ihnen erlaubt. Alle drei Methoden verbessern die Robustheit des Solvingprozesses für heterogenen Instanzmengen bestehend aus unterschiedlichsten Anwendungsproblemen. Parallele Solver sind zunehmend der Schlüssel zum effektiven Lösen auf multi-core Maschinen. Daher haben wir all unsere Ansätze auch für den Einsatz auf parallelen Architekturen erweitert. Umfangreiche Experimente auf ASP, CSP, MAXSAT, Operation Research (OR), SAT und QBF zeigen, dass der Stand der Technik durch verbesserte Performanz auf heterogenen Instanzmengen verbessert wurde. Auf Grundlage dieser Experimente leiten wir auch Ratschläge ab, in welchen Anwendungsszenarien welches unserer Verfahren angewendet werden sollte. T2 - Algorithmen-Selektion, -Ablaufplanung und -Konfiguration von Bool'schen Constraint Solvern KW - algorithm configuration KW - algorithm scheduling KW - algorithm selection KW - parallel solving KW - Boolean constraint solver KW - Algorithmenselektion KW - Algorithmenablaufplanung KW - Algorithmenkonfiguration KW - paralleles Lösen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71260 ER - TY - THES A1 - Bathke, Hannes T1 - An investigation of complex deformation patterns detected by using InSAR at Llaima and Tendürek volcanoes T1 - Eine Untersuchung von komplexen Erdoberflächenverformungen gemessen mit InSAR, an den Vulkanen Llaima und Tendürek N2 - Surface displacement at volcanic edifices is related to subsurface processes associated with magma movements, fluid transfers within the volcano edifice and gravity-driven deformation processes. Understanding of associated ground displacements is of importance for assessment of volcanic hazards. For example, volcanic unrest is often preceded by surface uplift, caused by magma intrusion and followed by subsidence, after the withdrawal of magma. Continuous monitoring of the surface displacement at volcanoes therefore might allow the forecasting of upcoming eruptions to some extent. In geophysics, the measured surface displacements allow the parameters of possible deformation sources to be estimated through analytical or numerical modeling. This is one way to improve the understanding of subsurface processes acting at volcanoes. Although the monitoring of volcanoes has significantly improved in the last decades (in terms of technical advancements and number of monitored volcanoes), the forecasting of volcanic eruptions remains puzzling. In this work I contribute towards the understanding of the subsurface processes at volcanoes and thus to the improvement of volcano eruption forecasting. I have investigated the displacement field of Llaima volcano in Chile and of Tendürek volcano in East Turkey by using synthetic aperture radar interferometry (InSAR). Through modeling of the deformation sources with the extracted displacement data, it was possible to gain insights into potential subsurface processes occurring at these two volcanoes that had been barely studied before. The two volcanoes, although of very different origin, composition and geometry, both show a complexity of interacting deformation sources. At Llaima volcano, the InSAR technique was difficult to apply, due to the large decorrelation of the radar signal between the acquisition of images. I developed a model-based unwrapping scheme, which allows the production of reliable displacement maps at the volcano that I used for deformation source modeling. The modeling results show significant differences in pre- and post-eruptive magmatic deformation source parameters. Therefore, I conjecture that two magma chambers exist below Llaima volcano: a post-eruptive deep one and a shallow one possibly due to the pre-eruptive ascent of magma. Similar reservoir depths at Llaima have been confirmed by independent petrologic studies. These reservoirs are interpreted to be temporally coupled. At Tendürek volcano I have found long-term subsidence of the volcanic edifice, which can be described by a large, magmatic, sill-like source that is subject to cooling contraction. The displacement data in conjunction with high-resolution optical images, however, reveal arcuate fractures at the eastern and western flank of the volcano. These are most likely the surface expressions of concentric ring-faults around the volcanic edifice that show low magnitudes of slip over a long time. This might be an alternative mechanism for the development of large caldera structures, which are so far assumed to be generated during large catastrophic collapse events. To investigate the potential subsurface geometry and relation of the two proposed interacting sources at Tendürek, a sill-like magmatic source and ring-faults, I have performed a more sophisticated numerical modeling approach. The optimum source geometries show, that the size of the sill-like source was overestimated in the simple models and that it is difficult to determine the dip angle of the ring-faults with surface displacement data only. However, considering physical and geological criteria a combination of outward-dipping reverse faults in the west and inward-dipping normal faults in the east seem to be the most likely. Consequently, the underground structure at the Tendürek volcano consists of a small, sill-like, contracting, magmatic source below the western summit crater that causes a trapdoor-like faulting along the ring-faults around the volcanic edifice. Therefore, the magmatic source and the ring-faults are also interpreted to be temporally coupled. In addition, a method for data reduction has been improved. The modeling of subsurface deformation sources requires only a relatively small number of well distributed InSAR observations at the earth’s surface. Satellite radar images, however, consist of several millions of these observations. Therefore, the large amount of data needs to be reduced by several orders of magnitude for source modeling, to save computation time and increase model flexibility. I have introduced a model-based subsampling approach in particular for heterogeneously-distributed observations. It allows a fast calculation of the data error variance-covariance matrix, also supports the modeling of time dependent displacement data and is, therefore, an alternative to existing methods. N2 - Oberflächenverschiebungen an Vulkanen können einerseits durch unterirdische Magmen- oder Fluidbewegungen oder andererseits durch Gravitation verursacht werden. So sind insbesondere vor Eruptionen oft Aufwölbungen an Vulkanen zu beobachten, verursacht durch Magmenintrusion in die Erdkruste. Nach Eruptionen hingegen sinkt das Vulkangebäude aufgrund von Magmenextrusion wieder. Kontinuierliche Messungen an Vulkanen ermöglichen es, Eruptionen teilweise bis auf wenige Tage vorherzusagen. Die gemessenen Oberflächenverschiebungen können in analytischen oder numerischen Modellierungen genutzt werden, um Parameter eines möglichen Quellprozesses abzuschätzen. Auf diese Art und Weise kann das Verständnis über die unterirdischen Prozesse, die an Vulkanen stattfinden, verbessert werden. Obwohl es in den letzten Jahrzehnten eine enorme Entwicklung und Verbesserung der Überwachung von Vulkanen gab, sind viele Vorhersagen sehr vage und ungenau. Mit dieser Arbeit möchte ich einen Beitrag zum Verständnis von unterirdischen Prozessen an Vulkanen und auf lange Sicht gesehen, zur Vorhersage von Eruptionen leisten. Ich habe die Vulkane, Llaima in Chile und Tendürek im Osten der Türkei, mit Hilfe der Interferometrie von Radardaten (InSAR) untersucht. Die somit gemessenen Verschiebungen an der Erdoberfläche ermöglichen es, durch Modellierung der möglichen Deformationsquellen, Informationen über die Untergrundstrukturen dieser beiden bisher kaum erforschten Vulkane zu bekommen. Obwohl unterschiedlich in Aufbau, Gesteinszusammensetzung und Entstehung, zeigen beide Vulkane Anzeichen dafür, dass jeweils mehrere interagierende Deformationsquellen im Untergrund existieren. Am Vulkan Llaima war es schwierig, aufgrund der starken Dekorrelation des Radarsignals zwischen den Satellitenaufnahmen, die InSAR Methode anzuwenden. Ich entwickelte eine Methode um die doppeldeutigen relativen Phasenwerte der Interferogramme modellbasiert in eindeutige relative Phasenwerte umzurechnen. Die damit erzeugten Oberflächenverschiebungskarten am Vulkan eigneten sich nun für eine anschließende Modellierung der Deformationsquelle. Die Modellierungsergebnisse zeigen signifikante Unterschiede zwischen den Parametern der präeruptiven- und posteruptiven Deformationsquellen. Demzufolge könnten zwei unterschiedliche, interagierende Magmenkammern unter Llaima existieren, eine tiefe, posteruptiv aktive Kammer und eine flache, durch den Aufstieg von Magma präeruptiv aktive Kammer. Am Vulkan Tendürek ist eine langfristige, kontinuierliche Senkung des Vulkangebäudes zu beobachten, die mit einem großen, aufgrund von Kühlung sich kontrahierenden, magmatischen Sill, erklärbar ist. Unter Hinzunahme von hochauflösenden, optischen Daten jedoch, sind bei genauerer Untersuchung bogenförmige Strukturen an der Erdoberfläche sichtbar. Diese sind Anzeichen dafür, dass Verwerfungen existieren, die das gesamte Vulkangebäude in einem elliptischen Ring umgeben. Dabei ist zu beobachten, dass die Ringstörungen über Jahrtausende, möglicherweise sogar kontinuierlich, geringe Magnituden von Versatz aufweisen. Bei langer, kontinuierlicher Aktivität über mehrere zehntausende von Jahren, könnte dies ein weiterer Mechanismus zur Entstehung von Calderastrukturen an Vulkanen darstellen, der jedoch sehr langsam verläuft. Im Gegensatz dazu ist die heutige weit verbreitete Auffassung, dass Calderen als Folge katastrophaler Einstürze von Vulkangebäuden entstehen. Um zu untersuchen welche Geometrie die vorgeschlagenen Strukturen Sill und Ringstörungen an Tendürek im Untergund haben könnten, vollführte ich eine weitaus komplexere numerische Modellierung. Diese zeigt, dass die Größe des Sills ohne Berücksichtigung der Ringstörung um ein Vielfaches überschätzt ist. Die Orientierung und Geometrie der Ringstörungen ist jedoch nicht eindeutig nur mit Oberflächenverschiebungsdaten auflösbar. Unter der Berücksichtigung von geologischen und physikalischen Gesichtspunkten sind nach Außen einfallende Aufschiebungen im Westen und nach Innen einfallende Abschiebungen im Osten die plausibelste Erklärung. Außerdem habe ich eine Methode zur Datenreduzierung entwickelt. Abhängig vom zu untersuchenden Prozess sind für die Modellierung von unterirdischen Deformationsquellen verhältnismäßig wenige gut verteilte Messpunkte an der Erdoberfläche ausreichend. Satelliten gestützte Radaraufnahmen haben jedoch oft mehrere Millionen dieser Punkte. Deshalb müssen diese riesigen Datensätze auf eine Art und Weise reduziert werden, dass keine oder nur möglichst wenige Informationen verloren gehen. Für diesen Zweck habe ich, ausgehend von einem existierenden Algorithmus, eine modellbasierte Methode zur Reduzierung von besonders heterogen verteilten Oberflächendaten entwickelt. Diese Methode ist besonders gut auf Zeitreihendatensätze anwendbar und stellt somit eine Alternative zu existierenden Algorithmen dar. KW - InSAR KW - Deformationsquellenmodellierung KW - Llaima Vulkan KW - Tendürek Vulkan KW - Ringstörungen KW - InSAR KW - deformation source modeling KW - Llaima volcano KW - Tendürek volcano KW - ring-fault Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70522 ER - TY - THES A1 - Girbig, Dorothee T1 - Analysing concerted criteria for local dynamic properties of metabolic systems T1 - Die Analyse koordinierter Kriterien für lokale dynamische Eigenschaften metabolischer Systeme N2 - Metabolic systems tend to exhibit steady states that can be measured in terms of their concentrations and fluxes. These measurements can be regarded as a phenotypic representation of all the complex interactions and regulatory mechanisms taking place in the underlying metabolic network. Such interactions determine the system's response to external perturbations and are responsible, for example, for its asymptotic stability or for oscillatory trajectories around the steady state. However, determining these perturbation responses in the absence of fully specified kinetic models remains an important challenge of computational systems biology. Structural kinetic modeling (SKM) is a framework to analyse whether a metabolic steady state remains stable under perturbation, without requiring detailed knowledge about individual rate equations. It provides a parameterised representation of the system's Jacobian matrix in which the model parameters encode information about the enzyme-metabolite interactions. Stability criteria can be derived by generating a large number of structural kinetic models (SK-models) with randomly sampled parameter sets and evaluating the resulting Jacobian matrices. The parameter space can be analysed statistically in order to detect network positions that contribute significantly to the perturbation response. Because the sampled parameters are equivalent to the elasticities used in metabolic control analysis (MCA), the results are easy to interpret biologically. In this project, the SKM framework was extended by several novel methodological improvements. These improvements were evaluated in a simulation study using a set of small example pathways with simple Michaelis Menten rate laws. Afterwards, a detailed analysis of the dynamic properties of the neuronal TCA cycle was performed in order to demonstrate how the new insights obtained in this work could be used for the study of complex metabolic systems. The first improvement was achieved by examining the biological feasibility of the elasticity combinations created during Monte Carlo sampling. Using a set of small example systems, the findings showed that the majority of sampled SK-models would yield negative kinetic parameters if they were translated back into kinetic models. To overcome this problem, a simple criterion was formulated that mitigates such infeasible models and the application of this criterion changed the conclusions of the SKM experiment. The second improvement of this work was the application of supervised machine-learning approaches in order to analyse SKM experiments. So far, SKM experiments have focused on the detection of individual enzymes to identify single reactions important for maintaining the stability or oscillatory trajectories. In this work, this approach was extended by demonstrating how SKM enables the detection of ensembles of enzymes or metabolites that act together in an orchestrated manner to coordinate the pathways response to perturbations. In doing so, stable and unstable states served as class labels, and classifiers were trained to detect elasticity regions associated with stability and instability. Classification was performed using decision trees and relevance vector machines (RVMs). The decision trees produced good classification accuracy in terms of model bias and generalizability. RVMs outperformed decision trees when applied to small models, but encountered severe problems when applied to larger systems because of their high runtime requirements. The decision tree rulesets were analysed statistically and individually in order to explore the role of individual enzymes or metabolites in controlling the system's trajectories around steady states. The third improvement of this work was the establishment of a relationship between the SKM framework and the related field of MCA. In particular, it was shown how the sampled elasticities could be converted to flux control coefficients, which were then investigated for their predictive information content in classifier training. After evaluation on the small example pathways, the methodology was used to study two steady states of the neuronal TCA cycle with respect to their intrinsic mechanisms responsible for stability or instability. The findings showed that several elasticities were jointly coordinated to control stability and that the main source for potential instabilities were mutations in the enzyme alpha-ketoglutarate dehydrogenase. N2 - Metabolische Systeme neigen zur Ausbildung von Fließgleichgewichten, deren Konzentrationen und Reaktionsflüsse experimentell charakterisierbar sind. Derartige Messungen bieten eine phänotypische Repräsentation der zahlreichen Interaktionen und regulatorischen Mechanismen des zugrundeliegenden metabolischen Netzwerks. Diese Interaktionen bestimmen die Reaktion des Systems auf externe Perturbationen, wie z.B. dessen asymptotische Stabilität und Oszillationen. Die Charakterisierung solcher Eigenschaften ist jedoch schwierig, wenn kein entsprechendes kinetisches Modell mit allen Ratengleichungen und kinetischen Parametern für das untersuchte System zur Verfügung steht. Die strukturelle kinetische Modellierung (SKM) ermöglicht die Untersuchung dynamischer Eigenschaften wie Stabilität oder Oszillationen, ohne die Ratengleichungen und zugehörigen Parameter im Detail zu kennen. Statt dessen liefert sie eine parametrisierte Repräsentation der Jacobimatrix, in welcher die einzelnen Parameter Informationen über die Sättigung der Enzyme des Systems mit ihren Substraten kodieren. Die Parameter entsprechen dabei den Elastizitäten aus der metabolischen Kontrollanalyse, was ihre biologische Interpretation vereinfacht. Stabilitätskriterien werden durch Monte Carlo Verfahren hergeleitet, wobei zunächst eine große Anzahl struktureller kinetische Modelle (SK-Modelle) mit zufällig gezogenen Parametermengen generiert, und anschließend die resultierenden Jacobimatrizen evaluiert werden. Im Anschluss kann der Parameterraum statistisch analysiert werden, um Enzyme und Metabolite mit signifikantem Einfluss auf die Stabilität zu detektieren. In der vorliegenden Arbeit wurde das bisherige SKM-Verfahren durch neue methodische Verbesserungen erweitert. Diese Verbesserungen wurden anhand einer Simulationsstudie evaluiert, welche auf kleinen Beispielsystemen mit einfachen Michaelis Menten Kinetiken basierte. Im Anschluss wurden sie für eine detaillierte Analyse der dynamischen Eigenschaften des Zitratzyklus verwendet. Die erste Erweiterung der bestehenden Methodik wurde durch Untersuchung der biologischen Machbarkeit der zufällig erzeugten Elastizitäten erreicht. Es konnte gezeigt werden, dass die Mehrheit der zufällig erzeugten SK-Modelle zu negativen Michaeliskonstanten führt. Um dieses Problem anzugehen, wurde ein einfaches Kriterium formuliert, welches das Auftreten solcher biologisch unrealistischer SK-Modelle verhindert. Es konnte gezeigt werden, dass die Anwendung des Kriteriums die Ergebnisse von SKM Experimenten stark beeinflussen kann. Der zweite Beitrag bezog sich auf die Analyse von SKM-Experimenten mit Hilfe überwachter maschineller Lernverfahren. Bisherige SKM-Studien konzentrierten sich meist auf die Detektion individueller Elastizitäten, um einzelne Reaktionen mit Einfluss auf das Stabilitäts- oder oszillatorische Verhalten zu identifizieren. In dieser Arbeit wurde demonstriert, wie SKM Experimente im Hinblick auf multivariate Muster analysiert werden können, um Elastizitäten zu entdecken, die gemeinsam auf orchestrierte und koordinierte Weise die Eigenschaften des Systems bestimmen. Sowohl Entscheidungsbäume als auch Relevanzvektormaschinen (RVMs) wurden als Klassifikatoren eingesetzt. Während Entscheidungsbäume im allgemeinen gute Klassifikationsergebnisse lieferten, scheiterten RVMs an ihren großen Laufzeitbedürfnissen bei Anwendung auf ein komplexes System wie den Zitratzyklus. Hergeleitete Entscheidungsbaumregeln wurden sowohl statistisch als auch individuell analysiert, um die Koordination von Enzymen und Metaboliten in der Kontrolle von Trajektorien des Systems zu untersuchen. Der dritte Beitrag, welcher in dieser Arbeit vorgestellt wurde, war die Etablierung der Beziehung zwischen SKM und der metabolischer Kontrollanalyse. Insbesondere wurde gezeigt, wie die zufällig generierten Elastizitäten in Flusskontrollkoeffizienten umgewandelt werden. Diese wurden im Anschluss bezüglich ihres Informationsgehaltes zum Klassifikationstraining untersucht. Nach der Evaluierung anhand einiger kleiner Beispielsysteme wurde die neue Methodik auf die Studie zweier Fließgleichgewichte des neuronalen Zitratzyklus angewandt, um intrinsische Mechanismen für Stabilität oder Instabilität zu finden. Die Ergebnisse identifizierten Mutationen im Enzym alpha-ketoglutarate dehydrogenase als wahrscheinlichste Quelle füur Instabilitäten. KW - Systembiologie KW - mathematische Modellierung KW - systems biology KW - mathematical modeling Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72017 ER - TY - THES A1 - Lindemann, Marcus T1 - Architekturmuster für Software-Produktlinien : Konzeption einer Methode zur Evaluation und Auswahl von Architekturmustern für die Gestaltung von Software-Produktlinien Y1 - 2014 SN - 978-3-95545-068-7 PB - Gito-Verl. CY - Berlin ER - TY - THES A1 - Zhou, Xu T1 - Atmospheric interactions with land surface in the arctic based on regional climate model solutions Y1 - 2014 ER - TY - THES A1 - Wilde, Anja T1 - Ausprägungen räumlicher Identität in ehemaligen sudetendeutschen Gebieten der Tschechischen Republik T1 - Spatial identities in former Sudeten German regions of the Czech Republic BT - the examples of the districts of Tachov (Tachau) and Sokolov (Falkenau) BT - am Beispiel der Bezirke Tachov (Tachau) und Sokolov (Falkenau) N2 - Das tschechische Grenzgebiet ist eine der Regionen in Europa, die in der Folge des Zweiten Weltkrieges am gravierendsten von Umbrüchen in der zuvor bestehenden Bevölkerungsstruktur betroffen waren. Der erzwungenen Aussiedlung eines Großteils der ansässigen Bevölkerung folgten die Neubesiedlung durch verschiedenste Zuwanderergruppen sowie teilweise langanhaltende Fluktuationen der Einwohnerschaft. Die Stabilisierung der Bevölkerung stand sodann unter dem Zeichen der sozialistischen Gesellschafts- und Wirtschaftsordnung, die die Lebensweise und Raumwahrnehmung der neuen Einwohner nachhaltig prägte. Die Grenzöffnung von 1989, die politische Transformation sowie die Integration der Tschechischen Republik in die Europäische Union brachten neue demographische und sozioökonomische Entwicklungen mit sich. Sie schufen aber auch die Bedingungen dafür, sich neu und offen auch mit der spezifischen Geschichte des ehemaligen Sudetenlandes sowie mit dem Zustand der gegenwärtigen Gesellschaft in diesem Gebiet auseinanderzusetzen. Im Rahmen der vorliegenden Arbeit wird anhand zweier Beispielregionen untersucht, welche Raumvorstellungen und Raumbindungen bei der heute in den ehemaligen sudetendeutschen Gebieten ansässigen Bevölkerung vorhanden sind und welche Einflüsse die unterschiedlichen raumstrukturellen Bedingungen darauf ausüben. Besonderes Augenmerk wird auf die soziale Komponente der Ausprägung räumlicher Identität gelegt, das heißt auf die Rolle von Bedeutungszuweisungen gegenüber Raumelementen im Rahmen sozialer Kommunikation und Interaktion. Dies erscheint von besonderer Relevanz in einem Raum, der sich durch eine gewisse Heterogenität seiner Einwohnerschaft hinsichtlich ihres ethnischen, kulturellen beziehungsweise biographischen Hintergrundes auszeichnet. Schließlich wird ermittelt, welche Impulse unter Umständen von einer ausgeprägten räumlichen Identität für die Entwicklung des Raumes ausgehen. N2 - The Czech border area is one of the regions in Europe which were most seriously affected by radical changes in the previous population structure during the post-Second World War period. The forced out-migration of the majority of the resident population was followed by the new settlement of different immigrant groups as well as partly long lasting fluctuations of the inhabitants. The subsequent stabilization of the population took place under the conditions of the socialist social order and economic system which greatly affected the way of life of the new inhabitants as well as their perception of the environment. The opening of the border in 1989, the political transformation and the integration of the Czech Republic into the EU brought about new demographic and socio-economic developments. This also facilitated a more open dealing with the specific history of the former “Sudetenland” and with the state of contemporary society in the region. Based on the example of two regions in Western Bohemia, the study examines how the current inhabitants experience their environment, what kind of relationship they have towards it and what structural conditions influence these phenomena. Special attention is paid to the social component of the development of spacial identity, i.e. to the role of assignment of meaning to spatial elements in the process of social communication and interaction. This seems to be particularly relevant in the region characterized by a certain heterogeneity of its inhabitants with regard to their ethnic, cultural or biographic background. Finally, it is examined what impacts a distinct spatial identity may have on the development of the region. T3 - Praxis Kultur- und Sozialgeographie | PKS - 59 KW - Tschechische Republik KW - Grenzgebiet KW - räumliche Identität KW - Czech Republic KW - border area KW - spatial identity Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-70247 SN - 978-3-86956-311-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Grigoli, Francesco T1 - Automated seismic event location by waveform coherence analysis T1 - Die automatische Lokalisierung von Mikroerdbeben durch die Wellenform Kohärenzanalyse N2 - Automated location of seismic events is a very important task in microseismic monitoring operations as well for local and regional seismic monitoring. Since microseismic records are generally characterised by low signal-to-noise ratio, such methods are requested to be noise robust and sufficiently accurate. Most of the standard automated location routines are based on the automated picking, identification and association of the first arrivals of P and S waves and on the minimization of the residuals between theoretical and observed arrival times of the considered seismic phases. Although current methods can accurately pick P onsets, the automatic picking of the S onset is still problematic, especially when the P coda overlaps the S wave onset. In this thesis I developed a picking free automated method based on the Short-Term-Average/Long-Term-Average (STA/LTA) traces at different stations as observed data. I used the STA/LTA of several characteristic functions in order to increase the sensitiveness to the P wave and the S waves. For the P phases we use the STA/LTA traces of the vertical energy function, while for the S phases, we use the STA/LTA traces of the horizontal energy trace and then a more optimized characteristic function which is obtained using the principal component analysis technique. The orientation of the horizontal components can be retrieved by robust and linear approach of waveform comparison between stations within a network using seismic sources outside the network (chapter 2). To locate the seismic event, we scan the space of possible hypocentral locations and origin times, and stack the STA/LTA traces along the theoretical arrival time surface for both P and S phases. Iterating this procedure on a three-dimensional grid we retrieve a multidimensional matrix whose absolute maximum corresponds to the spatial and temporal coordinates of the seismic event. Location uncertainties are then estimated by perturbing the STA/LTA parameters (i.e the length of both long and short time windows) and relocating each event several times. In order to test the location method I firstly applied it to a set of 200 synthetic events. Then we applied it to two different real datasets. A first one related to mining induced microseismicity in a coal mine in the northern Germany (chapter 3). In this case we successfully located 391 microseismic event with magnitude range between 0.5 and 2.0 Ml. To further validate the location method I compared the retrieved locations with those obtained by manual picking procedure. The second dataset consist in a pilot application performed in the Campania-Lucania region (southern Italy) using a 33 stations seismic network (Irpinia Seismic Network) with an aperture of about 150 km (chapter 4). We located 196 crustal earthquakes (depth < 20 km) with magnitude range 1.1 < Ml < 2.7. A subset of these locations were compared with accurate locations retrieved by a manual location procedure based on the use of a double difference technique. In both cases results indicate good agreement with manual locations. Moreover, the waveform stacking location method results noise robust and performs better than classical location methods based on the automatic picking of the P and S waves first arrivals. N2 - Die automatische Lokalisierung seismischer Ereignisse ist eine wichtige Aufgabe, sowohl im Bereich des Mikroseismischen Monitorings im Bergbau und von Untegrund Aktivitäten,  wie auch für die lokale und regionale Überwachung von natürlichen Erdbeben. Da mikroseismische Datensätze häufig ein schlechtes Signal-Rausch-Verhältnis haben müssen die Lokalisierungsmethoden robust gegen Rauschsignale und trotzdem hinreichend genau sein. Aufgrund der in der Regel sehr hochfrequent aufgezeichneten Messreihen und der dadurch sehr umfangreichen Datensätze sind automatische Auswertungen erstrebenswert. Solche Methoden benutzen in der Regel automatisch gepickte und  den P und S Phasen zugeordnete Ersteinsätze und Minimieren die Summe der quadratischen Zeitdifferenz zwischen den beobachteten und theoretischen Einsatzzeiten. Obgleich das automatische Picken der P Phase in der Regel sehr genau möglich ist, hat man beim Picken der S Phasen häufig Probleme, z.B. wenn die Coda der P Phase sehr lang ist und in den Bereich der S Phase hineinreicht. In dieser Doktorarbeit wird eine Methode vollautomatische, Wellenform-basierte Lokalisierungsmethode entwickelt, die Funktionen des Verhältnisses "Short Term Average / Long Term Average"  (STA/LTA) verwendet und keine Pickzeiten invertiert. Die STA/LTA charakteristische Funktion wurde für unterschiedliche Wellenform Attribute getestet, um die Empfindlichkeit für P und S Phasen zu erhöhen. Für die P Phase wird die STA/LTA Funktion für die Energie der Vertikalkomponente der Bodenbewegung benutzt, wohingegen für die S Phase entweder die Energie der horizontalen Partikelbewegung oder eine optimierte Funktion auf Basis der Eigenwertzerlegung benutzt wird. Um die Ereignisse zu lokalisieren wird eine Gittersuche über alle möglichen Untergrundlokalisierungen durchgeführt. Für jeden räumlichen und zeitlichen Gitterpunkt werden die charakteristischen Funktionen entlang der theoretischen Einsatzkurve aufsummiert. Als Ergebnis erhält man eine 4-dimensionale Matrix über Ort und Zeit des Ereignisses, deren Maxima die wahrscheinlichsten Lokalisierungen darstellen. Um die Unsicherheiten der Lokalisierung abzuschätzen wurden die Parameter der STA/LTA Funktionen willkürlich verändert und das Ereignis relokalisiert. Die Punktwolke aller möglichen Lokalisierungen gibt ein Maß für die Unsicherheit des Ergebnisses. Die neu entwickelte Methode wurde an einem synthetischen Datensatz von 200 Ereignissen getestet und für zwei beobachtete Datensätze demonstriert. Der erste davon betrifft induzierte Seismizität in einem Kohlebergbau in Norddeutschland. Es wurden 391 Mikrobeben mit Magnituden zwischen Ml 0.5 und 2.0 erfolgreich lokalisiert und durch Vergleich mit manuell ausgewerteten Lokalisierungen verifziert.Der zweite Datensatz stammt von einem Anwednung auf des Regionale Überwachungsnetz in der Region Campania-Lucania (Süditalien)  mit 33 seismischen Stationen und einer Apertur von etwa 150 km. Wir konnten 196 Erdbeben mit Tiefen < 20 km und Magnituden zwischen Ml 1.1 und 2.7 lokalisieren. Eine Untergruppe der eigenen Lokalisierungen wurde mit den Lokalisierungen einer Standard Lokalisierung sowie einer  hochgenauen Relativlokalisierung verglichen. In beiden Fällen ist die Übereinstimmung mit den manuellen Lokalisierungen groß. Außerdem finden wir, dass die Wellenform Summations Lokalisierung ronbust gegen Rauschen ist und bessere Ergebnisse liefert als die Standard Lokalisierung, die auf dem automatischen Picken von Ersteinsatzzeiten alleine basiert. KW - earthquake location KW - induced seismicity KW - microseismicity Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70329 ER - TY - THES A1 - Bach, Tobias T1 - Autonomie und Steuerung verselbständigter Behörden : eine empirische Analyse am Beispiel Deutschlands und Norwegens T2 - Interdisziplinäre Organisations- und Verwaltungsforschung Y1 - 2014 SN - 978-3-658-04298-1 VL - 19 PB - Springer Fachmedien CY - Wiesbaden ER - TY - THES A1 - Grothaus, Christian J. T1 - Baukunst als unmögliche Möglichkeit : Plädoyer für eine unbestimmte Architektur Y1 - 2014 SN - 978-3-8376-2631-5 PB - transcript Verlag CY - Bielefeld ER - TY - THES A1 - Schönebeck, Maria T1 - Behavioural, visual, and electrophysiological correlates of infant reasoning about others' intentional actions BT - an integrative analysis of infant attention, encoding, and reproduction measures Y1 - 2014 ER - TY - THES A1 - Gerlach, Rüdiger T1 - Betriebliche Sozialpolitik im historischen Systemvergleich : das Volkswagenwerk und der VEB Sachsenring von den 1950er bis in die 1980er Jahre T2 - Vierteljahreschrift für Sozial- und Wirtschaftsgeschichte - Beihefte Y1 - 2014 SN - 978-3-515-10664-1 VL - 227 PB - Franz Steiner Verlag CY - Stuttgart ER - TY - THES A1 - Sachse, Rita T1 - Biological membranes in cell-free systems BT - characterisation and functionalisation of spodoptera frugiperda derived microsomes Y1 - 2014 ER - TY - THES A1 - Schipper, Florian T1 - Biomass derived carbon for new energy storage technologies N2 - The thesis deals with the production and evaluation of porous carbon materials for energy storage technologies, namely super capacitors and lithium sulfur batteries. N2 - Die Doktorarbeit befasst sich mit der Produktion und Evaluierung poröser Kohlenstoffmaterialien für die Anwendung in Energiespeichertechnologien, namentlich Superkondensatoren und Lithiumschwefelbatterien. T2 - Biomasse basierende Kohlenstoffe für neue Energiespeichertechnologien KW - Batterien KW - Superkondensatoren KW - Energiespeicher KW - Lithium-Schwefel-Batterien KW - Kohlenstoff KW - battery KW - supercapacitors KW - energy storage KW - lithium sulfur battery KW - carbon Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72045 ER - TY - THES A1 - Tinnefeld, Christian T1 - Building a columnar database on shared main memory-based storage BT - database operator placement in a shared main memory-based storage system that supports data access and code execution N2 - In the field of disk-based parallel database management systems exists a great variety of solutions based on a shared-storage or a shared-nothing architecture. In contrast, main memory-based parallel database management systems are dominated solely by the shared-nothing approach as it preserves the in-memory performance advantage by processing data locally on each server. We argue that this unilateral development is going to cease due to the combination of the following three trends: a) Nowadays network technology features remote direct memory access (RDMA) and narrows the performance gap between accessing main memory inside a server and of a remote server to and even below a single order of magnitude. b) Modern storage systems scale gracefully, are elastic, and provide high-availability. c) A modern storage system such as Stanford's RAMCloud even keeps all data resident in main memory. Exploiting these characteristics in the context of a main-memory parallel database management system is desirable. The advent of RDMA-enabled network technology makes the creation of a parallel main memory DBMS based on a shared-storage approach feasible. This thesis describes building a columnar database on shared main memory-based storage. The thesis discusses the resulting architecture (Part I), the implications on query processing (Part II), and presents an evaluation of the resulting solution in terms of performance, high-availability, and elasticity (Part III). In our architecture, we use Stanford's RAMCloud as shared-storage, and the self-designed and developed in-memory AnalyticsDB as relational query processor on top. AnalyticsDB encapsulates data access and operator execution via an interface which allows seamless switching between local and remote main memory, while RAMCloud provides not only storage capacity, but also processing power. Combining both aspects allows pushing-down the execution of database operators into the storage system. We describe how the columnar data processed by AnalyticsDB is mapped to RAMCloud's key-value data model and how the performance advantages of columnar data storage can be preserved. The combination of fast network technology and the possibility to execute database operators in the storage system opens the discussion for site selection. We construct a system model that allows the estimation of operator execution costs in terms of network transfer, data processed in memory, and wall time. This can be used for database operators that work on one relation at a time - such as a scan or materialize operation - to discuss the site selection problem (data pull vs. operator push). Since a database query translates to the execution of several database operators, it is possible that the optimal site selection varies per operator. For the execution of a database operator that works on two (or more) relations at a time, such as a join, the system model is enriched by additional factors such as the chosen algorithm (e.g. Grace- vs. Distributed Block Nested Loop Join vs. Cyclo-Join), the data partitioning of the respective relations, and their overlapping as well as the allowed resource allocation. We present an evaluation on a cluster with 60 nodes where all nodes are connected via RDMA-enabled network equipment. We show that query processing performance is about 2.4x slower if everything is done via the data pull operator execution strategy (i.e. RAMCloud is being used only for data access) and about 27% slower if operator execution is also supported inside RAMCloud (in comparison to operating only on main memory inside a server without any network communication at all). The fast-crash recovery feature of RAMCloud can be leveraged to provide high-availability, e.g. a server crash during query execution only delays the query response for about one second. Our solution is elastic in a way that it can adapt to changing workloads a) within seconds, b) without interruption of the ongoing query processing, and c) without manual intervention. N2 - Diese Arbeit beschreibt die Erstellung einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Motiviert wird diese Arbeit durch drei Faktoren. Erstens ist moderne Netzwerktechnologie mit “Remote Direct Memory Access” (RDMA) ausgestattet. Dies reduziert den Unterschied hinsichtlich Latenz und Durchsatz zwischen dem Speicherzugriff innerhalb eines Rechners und auf einen entfernten Rechner auf eine Größenordnung. Zweitens skalieren moderne Speichersysteme, sind elastisch und hochverfügbar. Drittens hält ein modernes Speichersystem wie Stanford's RAMCloud alle Daten im Hauptspeicher vor. Diese Eigenschaften im Kontext einer spalten-orientierten Datenbank zu nutzen ist erstrebenswert. Die Arbeit ist in drei Teile untergliedert. Der erste Teile beschreibt die Architektur einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Hierbei werden die im Rahmen dieser Arbeit entworfene und entwickelte Datenbank AnalyticsDB sowie Stanford's RAMCloud verwendet. Die Architektur beschreibt wie Datenzugriff und Operatorausführung gekapselt werden um nahtlos zwischen lokalem und entfernten Hauptspeicher wechseln zu können. Weiterhin wird die Ablage der nach einem relationalen Schema formatierten Daten von AnalyticsDB in RAMCloud behandelt, welches mit einem Schlüssel-Wertpaar Datenmodell operiert. Der zweite Teil fokussiert auf die Implikationen bei der Abarbeitung von Datenbankanfragen. Hier steht die Diskussion im Vordergrund wo (entweder in AnalyticsDB oder in RAMCloud) und mit welcher Parametrisierung einzelne Datenbankoperationen ausgeführt werden. Dafür werden passende Kostenmodelle vorgestellt, welche die Abbildung von Datenbankoperationen ermöglichen, die auf einer oder mehreren Relationen arbeiten. Der dritte Teil der Arbeit präsentiert eine Evaluierung auf einem Verbund von 60 Rechnern hinsichtlich der Leistungsfähigkeit, der Hochverfügbarkeit und der Elastizität vom System. T2 - Die Erstellung einer spaltenorientierten Datenbank auf einem verteilten, Hauptspeicher-basierenden Speichersystem KW - computer science KW - database technology KW - main memory computing KW - cloud computing KW - verteilte Datenbanken KW - Hauptspeicher Technologie KW - virtualisierte IT-Infrastruktur Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72063 ER - TY - THES A1 - Steinert, Bastian T1 - Built-in recovery support for explorative programming T1 - Eingebaute Unterstützung für Wiederherstellungsbedürfnisse für unstrukturierte ergebnisoffene Programmieraufgaben BT - preserving immediate access to static and dynamic information of intermediate development states BT - Erhaltung des unmittelbaren Zugriffs auf statische und dynamische Informationen von Entwicklungszwischenständen N2 - This work introduces concepts and corresponding tool support to enable a complementary approach in dealing with recovery. Programmers need to recover a development state, or a part thereof, when previously made changes reveal undesired implications. However, when the need arises suddenly and unexpectedly, recovery often involves expensive and tedious work. To avoid tedious work, literature recommends keeping away from unexpected recovery demands by following a structured and disciplined approach, which consists of the application of various best practices including working only on one thing at a time, performing small steps, as well as making proper use of versioning and testing tools. However, the attempt to avoid unexpected recovery is both time-consuming and error-prone. On the one hand, it requires disproportionate effort to minimize the risk of unexpected situations. On the other hand, applying recommended practices selectively, which saves time, can hardly avoid recovery. In addition, the constant need for foresight and self-control has unfavorable implications. It is exhaustive and impedes creative problem solving. This work proposes to make recovery fast and easy and introduces corresponding support called CoExist. Such dedicated support turns situations of unanticipated recovery from tedious experiences into pleasant ones. It makes recovery fast and easy to accomplish, even if explicit commits are unavailable or tests have been ignored for some time. When mistakes and unexpected insights are no longer associated with tedious corrective actions, programmers are encouraged to change source code as a means to reason about it, as opposed to making changes only after structuring and evaluating them mentally. This work further reports on an implementation of the proposed tool support in the Squeak/Smalltalk development environment. The development of the tools has been accompanied by regular performance and usability tests. In addition, this work investigates whether the proposed tools affect programmers’ performance. In a controlled lab study, 22 participants improved the design of two different applications. Using a repeated measurement setup, the study examined the effect of providing CoExist on programming performance. The result of analyzing 88 hours of programming suggests that built-in recovery support as provided with CoExist positively has a positive effect on programming performance in explorative programming tasks. N2 - Diese Arbeit präsentiert Konzepte und die zugehörige Werkzeugunterstützung um einen komplementären Umgang mit Wiederherstellungsbedürfnissen zu ermöglichen. Programmierer haben Bedarf zur Wiederherstellung eines früheren Entwicklungszustandes oder Teils davon, wenn ihre Änderungen ungewünschte Implikationen aufzeigen. Wenn dieser Bedarf plötzlich und unerwartet auftritt, dann ist die notwendige Wiederherstellungsarbeit häufig mühsam und aufwendig. Zur Vermeidung mühsamer Arbeit empfiehlt die Literatur die Vermeidung von unerwarteten Wiederherstellungsbedürfnissen durch einen strukturierten und disziplinierten Programmieransatz, welcher die Verwendung verschiedener bewährter Praktiken vorsieht. Diese Praktiken sind zum Beispiel: nur an einer Sache gleichzeitig zu arbeiten, immer nur kleine Schritte auszuführen, aber auch der sachgemäße Einsatz von Versionskontroll- und Testwerkzeugen. Jedoch ist der Versuch des Abwendens unerwarteter Wiederherstellungsbedürfnisse sowohl zeitintensiv als auch fehleranfällig. Einerseits erfordert es unverhältnismäßig hohen Aufwand, das Risiko des Eintretens unerwarteter Situationen auf ein Minimum zu reduzieren. Andererseits ist eine zeitsparende selektive Ausführung der empfohlenen Praktiken kaum hinreichend, um Wiederherstellungssituationen zu vermeiden. Zudem bringt die ständige Notwendigkeit an Voraussicht und Selbstkontrolle Nachteile mit sich. Dies ist ermüdend und erschwert das kreative Problemlösen. Diese Arbeit schlägt vor, Wiederherstellungsaufgaben zu vereinfachen und beschleunigen, und stellt entsprechende Werkzeugunterstützung namens CoExist vor. Solche zielgerichtete Werkzeugunterstützung macht aus unvorhergesehenen mühsamen Wiederherstellungssituationen eine konstruktive Erfahrung. Damit ist Wiederherstellung auch dann leicht und schnell durchzuführen, wenn explizit gespeicherte Zwischenstände fehlen oder die Tests für einige Zeit ignoriert wurden. Wenn Fehler und unerwartete Ein- sichten nicht länger mit mühsamen Schadensersatz verbunden sind, fühlen sich Programmierer eher dazu ermutig, Quelltext zu ändern, um dabei darüber zu reflektieren, und nehmen nicht erst dann Änderungen vor, wenn sie diese gedanklich strukturiert und evaluiert haben. Diese Arbeit berichtet weiterhin von einer Implementierung der vorgeschlagenen Werkzeugunterstützung in der Squeak/Smalltalk Entwicklungsumgebung. Regelmäßige Tests von Laufzeitverhalten und Benutzbarkeit begleiteten die Entwicklung. Zudem prüft die Arbeit, ob sich die Verwendung der vorgeschlagenen Werkzeuge auf die Leistung der Programmierer auswirkt. In einem kontrollierten Experiment, verbesserten 22 Teilnehmer den Aufbau von zwei verschiedenen Anwendungen. Unter der Verwendung einer Versuchsanordnung mit wiederholter Messung, ermittelte die Studie die Auswirkung von CoExist auf die Programmierleistung. Das Ergebnis der Analyse von 88 Programmierstunden deutet darauf hin, dass sich eingebaute Werkzeugunterstützung für Wiederherstellung, wie sie mit CoExist bereitgestellt wird, positiv bei der Bearbeitung von unstrukturierten ergebnisoffenen Programmieraufgaben auswirkt. KW - Softwaretechnik KW - Entwicklungswerkzeuge KW - Versionierung KW - Testen KW - software engineering KW - development tools KW - versioning KW - testing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71305 ER - TY - THES A1 - Loersch, Christian T1 - Business start-ups and the effect of coaching programs N2 - Entrepreneurship is known to be a main driver of economic growth. Hence, governments have an interest in supporting and promoting entrepreneurial activities. Start-up subsidies, which have been analyzed extensively, only aim at mitigating the lack of financial capital. However, some entrepreneurs also lack in human, social, and managerial capital. One way to address these shortcomings is by subsidizing coaching programs for entrepreneurs. However, theoretical and empirical evidence about business coaching and programs subsidizing coaching is scarce. This dissertation gives an extensive overview of coaching and is the first empirical study for Germany analyzing the effects of coaching programs on its participants. In the theoretical part of the dissertation the process of a business start-up is described and it is discussed how and in which stage of the company’s evolvement coaching can influence entrepreneurial success. The concept of coaching is compared to other non-monetary types of support as training, mentoring, consulting, and counseling. Furthermore, national and international support programs are described. Most programs have either no or small positive effects. However, there is little quantitative evidence in the international literature. In the empirical part of the dissertation the effectiveness of coaching is shown by evaluating two German coaching programs, which support entrepreneurs via publicly subsidized coaching sessions. One of the programs aims at entrepreneurs who have been employed before becoming self-employed, whereas the other program is targeted at former unemployed entrepreneurs. The analysis is based on the evaluation of a quantitative and a qualitative dataset. The qualitative data are gathered by intensive one-on-one interviews with coaches and entrepreneurs. These data give a detailed insight about the coaching topics, duration, process, effectiveness, and the thoughts of coaches and entrepreneurs. The quantitative data include information about 2,936 German-based entrepreneurs. Using propensity score matching, the success of participants of the two coaching programs is compared with adequate groups of non-participants. In contrast to many other studies also personality traits are observed and controlled for in the matching process. The results show that only the program for former unemployed entrepreneurs has small positive effects. Participants have a larger survival probability in self-employment and a larger probability to hire employees than matched non-participants. In contrast, the program for former employed individuals has negative effects. Compared to individuals who did not participate in the coaching program, participants have a lower probability to stay in self-employment, lower earned net income, lower number of employees and lower life satisfaction. There are several reasons for these differing results of the two programs. First, former unemployed individuals have more basic coaching needs than former employed individuals. Coaches can satisfy these basic coaching needs, whereas former employed individuals have more complex business problems, which are not very easy to be solved by a coaching intervention. Second, the analysis reveals that former employed individuals are very successful in general. It is easier to increase the success of former unemployed individuals as they have a lower base level of success than former employed individuals. An effect heterogeneity analysis shows that coaching effectiveness differs by region. Coaching for previously unemployed entrepreneurs is especially useful in regions with bad labor market conditions. In summary, in line with previous literature, it is found that coaching has little effects on the success of entrepreneurs. The previous employment status, the characteristics of the entrepreneur and the regional labor market conditions play a crucial role in the effectiveness of coaching. In conclusion, coaching needs to be well tailored to the individual and applied thoroughly. Therefore, governments should design and provide coaching programs only after due consideration. N2 - Da Unternehmensgründungen für gesamtwirtschaftliches Wachstum wichtig sind, bieten Regierungen verschiedene Fördermöglichkeiten für junge Unternehmen an. Während die Auswirkungen finanzieller Förderprogramme für Gründer schon häufig untersucht wurden, gibt es kaum Studien zu der Wirkungsweise von Coachingprogrammen. Eine Förderung von Coachingmaßnahmen kann sinnvoll sein, da es Gründern meist nicht nur an finanziellen Mitteln, sondern auch an Problemlösungskompetenz mangelt. Diese Dissertation ist die erste Forschungsarbeit, die einen umfassenden Überblick über das Thema Coaching gibt und erste empirische Ergebnisse für Deutschland liefert. Im theoretischen Teil der Arbeit werden die verschiedenen Phasen eines Unternehmens beschrieben und erläutert in welcher dieser Phasen Coaching am sinnvollsten ist. Außerdem wird das Konzept des Coachings mit anderen Methoden wie Training, Mentoring, Consulting und Counseling verglichen. Ein Überblick von nationalen und internationalen Förderprogrammen zeigt, dass die meisten Programme keine oder nur geringe positive Auswirkungen haben. Insgesamt gibt es jedoch nur sehr wenige quantitative Studien in diesem Bereich. Im empirischen Teil werden zwei deutsche Coachingprogramme evaluiert. Eines der Programme ist auf Gründer ausgerichtet, die unmittelbar vor ihrer Gründung einer abhängigen Beschäftigung nachgegangen sind, während das andere Programm vormals arbeitslose Gründer adressiert. Die empirische Analyse verwendet sowohl qualitative als auch quantitative Daten. Die qualitativen Daten wurden durch persönliche Interviews mit Coaches und Gründern erhoben. Anhand dieser Daten wird ein sehr detailliertes Bild der Coachingprozesse gezeichnet. Die quantitativen Daten wurden durch 2.936 Telefoninterviews mit in Deutschland tätigen Gründern generiert. Anhand eines „Propensity Score Matching“ Ansatzes wird der Erfolg von Programmteilnehmern und Nichtteilnehmern verglichen. Bei dieser Analyse werden auch Merkmale - insbesondere Persönlichkeitseigenschaften - berücksichtigt, die in vielen anderen Studien nicht beobachtet werden können. Es wird gezeigt, dass lediglich das Programm für vormals arbeitslose Gründer leicht positive Effekte aufweist. Gründer, die an diesem Coachingprogramm teilgenommen haben, haben eine höhere Wahrscheinlichkeit selbstständig zu bleiben und Mitarbeiter einzustellen als Gründer, die nicht an dem Coachingprogramm teilgenommen haben. Das Programm für vormals abhängig beschäftigte Gründer hingegen hat negative Effekte. Verglichen mit Gründern, die nicht an dem Programm teilgenommen haben, haben Coachingteilnehmer eine geringere Wahrscheinlichkeit selbstständig zu bleiben, ein geringeres Nettoerwerbseinkommen, weniger Mitarbeiter und sind nicht so zufrieden mit ihrem Leben. Für diese sehr unterschiedlichen Ergebnisse der beiden Programme gibt es mehrere Gründe. Grundsätzlich haben vormals arbeitslose Gründer einfachere Coachingbedarfe als vormals beschäftigte Gründer. Diese einfacheren Probleme in der Anfangsphase der Unternehmung sind durch ein Coaching zu lösen, wohingegen die ohnehin recht erfolgreichen Entrepreneure, die vorher nicht arbeitslos waren, komplexere Coachingbedarfe haben. Angesichts dieser schwieriger zu lösenden unternehmerischen Probleme von vormals beschäftigten Programmteilnehmern und des höheren ursprünglichen Erfolgslevels hat das Programm für vormals arbeitslose Gründer bessere Auswirkungen als das Programm für vormals beschäftigte Gründer. Nur vormals arbeitslose Gründer können ihre – noch geringer ausgeprägten – unternehmerischen Fähigkeiten durch die Teilnahme am Coaching verbessern, so dass hier leicht positive Programmeffekte entstehen. Die ausführliche Effektheterogenitätsanalyse zeigt, dass Coaching für vormals arbeitslose Gründer insbesondere in Regionen mit schlechter Arbeitsmarktlage sinnvoll ist. Zusammenfassend zeigt die Dissertation, dass Coaching nur geringe Auswirkungen auf den Erfolg von Gründern hat. Die Wirksamkeit hängt insbesondere von dem vorigen Beschäftigungsstatus, den persönlichen Eigenschaften des Gründers und der regionalen Arbeitsmarktlage ab. Die Dissertation zeigt somit, dass Coaching zur Unterstützung Selbstständiger nur seine Wirkung entfaltet, wenn es sehr gezielt eingesetzt wird. Staatliche Programme in diesem Bereich sollten deshalb vor Einführung ausführlich diskutiert werden, so dass ein Programmdesign entsteht, welches seine Wirkung nicht verfehlt. T2 - Unternehmensgründungen und der Effekt von Coachingprogrammen KW - coaching KW - business start‐up KW - self-­employed KW - entrepreneur KW - program effect KW - propensity score matching KW - labor market policy KW - policy evaluation KW - impact analysis KW - subsidy KW - Coaching KW - Unternehmensgründung KW - Selbstständige KW - Entrepreneur KW - Programmeffekt KW - Propensity Score Matching KW - Arbeitsmarktpolitik KW - Politik Evaluation KW - Wirkungsanalyse KW - Subvention Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72605 ER - TY - THES A1 - Supaporn, Worakrit T1 - Categorical equivalence of clones Y1 - 2014 ER - TY - THES A1 - Tenenboim, Yehezkel T1 - Characterization of a Chlamydomonas protein involved in cell division and autophagy T1 - Charakterisierung eines an Zellteilung und Autophagie beteiligten Chlamydomonas-Proteins N2 - The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation. N2 - Die kontraktile Vakuole ist ein osmoregulatorisches Organell, das ausschließlich in Algen und Protisten vorkommt. Zusätzlich zu ihrer Rolle als Ausstoßer überflüßigen Wassers aus der Zelle heraus, stößt sie auch Ionen und andere Metaboliten aus, und trägt dabei zur metabolischen Homöostase der Zelle bei. Das Interesse an der kontraktilen Vakuole erstreckt sich über seine unmittelbare zelluläre Rolle hinaus. Die Funktion der kontraktilen Vakuole ist mit einigen grundsätzlichen zellulären Verfahren, wie Membrandynamik und Vesikelknospung und -fusion, verwandt; einige physiologische Verfahren in Tieren, zum Beispiel synaptische Neurotransmission und das Filtrieren des Blutes in den Nieren, sind mit der Funktion der Vakuole eng verwandt; und einige Pathogene—der Ursacher der Schlafkrankheit als Beispiel—besitzen kontraktile Vakuolen, die als Ziele von Medikamenten dienen könnten. Die grüne Alge Chlamydomonas reinhardtii verfügt über zwei Vakuolen. Sie sind die kleinsten bekannten in der Natur, und bleiben bisher verhältnismäßig unerforscht. Viele Gene, die in anderen Organismen als kontraktile-Vakuole-bezogen erwiesen wurden, haben Homologe in C. reinhardtii. Wir versuchten, diese Gene auszuschalten und den Einfluss auf die Vakuole zu beobachten. Die Ausschaltung eines unserer Gene, VMP1, verursachte starke, beachtliche Phänotype. Die Zellen zeigten gestörte Zytokinese und aberrante Zellformen. Die kontraktile Vakuole blieb jedoch verschont. Des Weiteren zeigten Mutantzellen einige Hinweise auf gestörte Autophagie. Einige wichtige Gene des Zellzyklus und der Autophagie waren unterexprimiert in Mutantzellen. Lipidomische Analyse zeigte mehrere bedeutsame Unterschiede zwischen Wildtyp und Mutant, die die Beobachtungen der gestörten Autophagie verstärkten. VMP1 ist ein singularisches Protein, mit Homologen in zähligen eukaryotischen Organismen (jedoch nicht in Pilzen), aber üblicherweise ohne Verwandte in den jeweiligen Genomen. Seit seiner Erstcharakterisierung 2002 wurde es mit etlichen zellulären Verfahren, wie Autophagie, programmiertem Zelltod, Sekretion, Zelladhäsion, und Biogenese der Organellen, assoziiert. Es wurde auch mit einigen menschlichen Krankheiten wie Diabetes, Pankreatitis, und einigen Arten von Krebs in Verbindung gebracht. Unsere Ergebnisse wiederholen einige Beobachtungen in anderen Organismen, zeigen dennoch zum ersten Mal eine Beteiligung von VMP1 an der Zellteilung. Die unterliegenden Mechanismen dieser Beteiligung in Chlamydomonas, sowie andere wichtige Aspekte, etwa die subzelluläre Lokalisierung von VMP1 und dessen Interaktionspartner, warten noch auf Aufklärung. KW - VMP1 KW - autophagy KW - cytokinesis KW - chlamydomonas Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70650 ER - TY - THES A1 - Sprenger, Heike T1 - Characterization of drought tolerance in potato cultivars for identification of molecular markers Y1 - 2014 ER - TY - THES A1 - Jüppner, Jessica T1 - Characterization of metabolomic dynamics in synchronized Chlamydomonas reinhardtii cell cultures and the impact of TOR inhibition on cell cycle, proliferation and growth T1 - Charakterisierung der metabolischen Dynamik in synchronisierten Chlamydomonas reinhardtii Zellkulturen und der Einfluss der TOR-Inhibition auf Zellzyklus, Proliferation und Wachstum N2 - The adaptation of cell growth and proliferation to environmental changes is essential for the surviving of biological systems. The evolutionary conserved Ser/Thr protein kinase “Target of Rapamycin” (TOR) has emerged as a major signaling node that integrates the sensing of numerous growth signals to the coordinated regulation of cellular metabolism and growth. Although the TOR signaling pathway has been widely studied in heterotrophic organisms, the research on TOR in photosynthetic eukaryotes has been hampered by the reported land plant resistance to rapamycin. Thus, the finding that Chlamydomonas reinhardtii is sensitive to rapamycin, establish this unicellular green alga as a useful model system to investigate TOR signaling in photosynthetic eukaryotes. The observation that rapamycin does not fully arrest Chlamydomonas growth, which is different from observations made in other organisms, prompted us to investigate the regulatory function of TOR in Chlamydomonas in context of the cell cycle. Therefore, a growth system that allowed synchronously growth under widely unperturbed cultivation in a fermenter system was set up and the synchronized cells were characterized in detail. In a highly resolved kinetic study, the synchronized cells were analyzed for their changes in cytological parameters as cell number and size distribution and their starch content. Furthermore, we applied mass spectrometric analysis for profiling of primary and lipid metabolism. This system was then used to analyze the response dynamics of the Chlamydomonas metabolome and lipidome to TOR-inhibition by rapamycin The results show that TOR inhibition reduces cell growth, delays cell division and daughter cell release and results in a 50% reduced cell number at the end of the cell cycle. Consistent with the growth phenotype we observed strong changes in carbon and nitrogen partitioning in the direction of rapid conversion into carbon and nitrogen storage through an accumulation of starch, triacylglycerol and arginine. Interestingly, it seems that the conversion of carbon into triacylglycerol occurred faster than into starch after TOR inhibition, which may indicate a more dominant role of TOR in the regulation of TAG biosynthesis than in the regulation of starch. This study clearly shows, for the first time, a complex picture of metabolic and lipidomic dynamically changes during the cell cycle of Chlamydomonas reinhardtii and furthermore reveals a complex regulation and adjustment of metabolite pools and lipid composition in response to TOR inhibition. N2 - Die Anpassung der Wachstumsrate an Umweltveränderungen ist essentiell für das Überleben biologischer Systeme. Mit der Identifikation der evolutionär konservierten Serin/Threonin Kinase “Target of Rapamycin” (TOR) war ein zentraler Regulator gefunden, der in Abhängigkeit einer Vielzahl von Wachstumsfaktoren den zellulären Metabolismus und das Wachstum reguliert. Während zum heutigen Zeitpunkt schon relativ gute Kenntnisse über die Funktionen und Signalwege dieser Kinase in heterotrophen Organismen gewonnen werden konnten, wurden die Untersuchungen des TOR-Signalweges in photoautotrophen Organismen durch deren Resistenz gegenüber dem TOR-spezifischen Inhibitor Rapamycin für lange Zeit erschwert. Daher bietet die Entdeckung, dass die einzelligen Grünalge Chlamydomonas reinhardtii eine natürliche Sensitivität gegenüber Rapamycin aufweist, eine gute Grundlage zur Erforschung des TOR-Signalweges in photosynthetisch aktiven Eukaryoten. Aufgrund der Beobachtung, dass das Wachstum von Chlamydomonas nicht vollständig durch Rapamycin inhibiert werden konnte, was im Gegensatz zu Beobachtungen in anderen Organismen steht, entschieden wir uns für eine detailliertere Analyse des Einflusses von TOR auf den Zellzyklus. Dazu wurde ein System etabliert das eine Synchronisation der Zellen unter weitestgehend ungestörten Bedingungen in einem Fermenter-system erlaubte. Dieses System wurde dann für eine detaillierte Charakterisierung der synchronisierten Zellen genutzt. Mittels einer hochaufgelösten Zeitreihe wurden Veränderungen zytologischer Parameter (Zellzahl und Zellgrößenverteilung) und des Stärkegehalts analysiert. Zusätzlich wurden massenspektrometrische Verfahren zur Analyse des Primär- und Lipidmetabolismus verwendet. Dieses System wurde des Weiteren dazu genutzt dynamische Veränderungen im Metabolom und Lipidom von Chlamydomonas nach Inhibition der TOR Kinase durch Rapamycin zu untersuchen Die Ergebnisse der TOR-Inhibition zeigen ein vermindertes Wachstum, eine Verzögerung in der Zellteilung und der Entlassung der Tochterzellen und resultieren in einer um 50% verringerten Zellzahl am Ende des Zellzyklus. Des Weiteren konnte eine Akkumulation von Kohlenstoff– und Stickstoff-Reserven in Form von Stärke und Triacylglyceriden, sowie Arginin beobachtet werden. Dabei ist vor allem interessant, dass die der Einbau von Kohlenstoff in Triacylglyceride offenbar schneller erfolgt als der in Stärke, was auf eine dominantere Rolle von TOR in der Regulation der Triacylglycerid-Biosynthese gegenüber der Stärkesynthese hindeutet. Diese Studie zeigt zum ersten Mal eine komplexe Analyse der dynamischen Veränderungen im Primär- und Lipidmetabolismus im Verlauf des Zellzyklus von Chlamydomonas und zeigt weiterhin die komplexe Regulation und Adjustierung des Metabolit-Pools und der Lipidzusammensetzung als Antwort auf die Inhibition von TOR. KW - chlamydomonas reinhardtii KW - metabolites KW - Metaboliten KW - lipids KW - Lipide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76923 ER - TY - THES A1 - Wirth, Jonas A. T1 - Chemische Reaktionen in Substrat-Adsorbat-Systemen BT - eine kinetische Perspektive Y1 - 2014 ER - TY - THES A1 - Schnjakin, Maxim T1 - Cloud-RAID BT - eine Methode zur Bereitstellung zuverlässiger Speicherressourcen in öffentlichen Clouds Y1 - 2014 ER - TY - THES A1 - Hewing, Martin T1 - Collaboration with potential users for discontinuous innovation : eperimental research on user creativity Y1 - 2014 SN - 978-3-658-03752-9 PB - Springer Gabler CY - Wiesbaden ER - TY - THES A1 - Brem, Patrick T1 - Compact objects in dense astrophysical environments BT - numerical simulations and implications for gravitational wave astronomy Y1 - 2014 ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Brandt-Kobele, Oda-Christina T1 - Comprehension of verb inflection in German-speaking children T1 - Das Verständnis von Verbflexionsendungen bei deutschsprachigen Kindern N2 - Previous studies on the acquisition of verb inflection in normally developing children have revealed an astonishing pattern: children use correctly inflected verbs in their own speech but fail to make use of verb inflections when comprehending sentences uttered by others. Thus, a three-year old might well be able to say something like ‘The cat sleeps on the bed’, but fails to understand that the same sentence, when uttered by another person, refers to only one sleeping cat but not more than one. The previous studies that have examined children's comprehension of verb inflections have employed a variant of a picture selection task in which the child was asked to explicitly indicate (via pointing) what semantic meaning she had inferred from the test sentence. Recent research on other linguistic structures, such as pronouns or focus particles, has indicated that earlier comprehension abilities can be found when methods are used that do not require an explicit reaction, like preferential looking tasks. This dissertation aimed to examine whether children are truly not able to understand the connection the the verb form and the meaning of the sentence subject until the age of five years or whether earlier comprehension can be found when a different measure, preferential looking, is used. Additionally, children's processing of subject-verb agreement violations was examined. The three experiments of this thesis that examined children's comprehension of verb inflections revealed the following: German-speaking three- to four-year old children looked more to a picture showing one actor when hearing a sentence with a singular inflected verb but only when their eye gaze was tracked and they did not have to perform a picture selection task. When they were asked to point to the matching picture, they performed at chance-level. This pattern indicates asymmetries in children's language performance even within the receptive modality. The fourth experiment examined sensitivity to subject-verb agreement violations and did not reveal evidence for sensitivity toward agreement violations in three- and four-year old children, but only found that children's looking patterns were influenced by the grammatical violations at the age of five. The results from these experiments are discussed in relation to the existence of a production-comprehension asymmetry in the use of verb inflections and children's underlying grammatical knowledge. N2 - Experimentelle Studien zum Erwerb der Verbflexion bei sprachunauffälligen Kindern haben ein überraschendes Muster aufgezeigt. Kinder im Alter von drei und vier Jahren verwenden Verbflexionsendungen anscheinend korrekt in ihrer eigenen Sprachproduktion, aber sie scheinen unfähig zu sein, Verbflexionen in den Äußerungen anderer zu verstehen. Ein Kind ist also problemlos in der Lage “Sie schläft auf dem Bett.” zu sagen, wenn es die Position von z. B. einer Katze beschreiben möchte. Gleichzeitig scheint es nicht zu verstehen, dass sich ein Satz wie “Sie schläft auf dem Bett” auf nur eine schlafende Katze und nicht mehrere bezieht. Das Verständnis von Sätzen, in denen der einzige Hinweis auf die Anzahl der Handelnden (den Numerus des Subjekts) die Verbflexion ist, wurde bislang nur mit ‘Zeige-Experimenten’ untersucht. In solchen Sprachtests soll das Kind durch eine Zeigegeste auf eines von zwei vorgegebenen Bildern explizit anzeigen wie es den vorgegebenen Satz verstanden hat. Aktuelle Studien, die das Verständnis von sprachlichen Elementen wie Pronomen und Fokuspartikeln bei Kindern untersucht haben, lassen erkennen, dass die Testmethodik einen erheblichen Einfluss auf die kindlichen Sprachverständnisfähigkeiten zu haben scheint. Wenn man Methoden verwendet, die keine explizite Reaktion von Seiten der Kinder verlangen, findet man korrektes Verständnis schon bei jüngeren Kindern. Das Ziel dieser Dissertation war es zu untersuchen, ob drei- und vierjährige Kinder tatsächlich nicht in der Lage sind die Beziehung zwischen Verbform (Art der Verbflexion) und Subjektbedeutung (Numerus des Subjekts) zu verstehen oder ob man korrektes Sprachverständnis in jüngeren Populationen finden kann, wenn eine alternative Testmethode, die Messung der Augenbewegungen, verwendet wird. Zusätzlich wurde untersucht ob Kinder im gleichen Alter Verletzungen der Subjekt-Verb-Kongruenz in auditiv präsentierten Sätzen entdecken. Drei Experimente dieser Dissertation, die das kindliche Sprachverständnis in Bezug auf Verbflexion untersucht haben bringen folgendes Muster zum Vorschein: Deutsch-sprachige Kinder im Alter von drei bis vier Jahren schauten mehr zu einem Bild, auf dem nur ein Akteur zu sehen war, wenn sie einen Satz mit einem singular flektierten Verb hörten (Sie streichelt eine Katze). Andererseits schauten sie mehr zu einem Bild, auf dem zwei Akteure zu sehen waren, wenn sie einen Satz mit einem plural flektierten Verb hörten (Sie streicheln eine Katze). Wenn sie hingegen gebeten wurden, auf das korrekte Bild zu zeigen, reagierten sie nicht besser als es der Zufall erwartet hätte, d.h.~sie waren nicht in der Lage einen Satz einem entsprechenden Bild zuzuordnen. Dieses Ergebnismuster deutet auf die Existenz von (methoden-abhängigen) Asymmetrien innerhalb einer sprachlichen Modalität, dem Sprach\-verständnis, hin. Das vierte Experiment untersuchte die kindliche Sensitivität gegenüber der Verletzung von Subjekt-Verb-Kongruenz. Hier zeigte sich, dass das Blickverhalten von fünfjährigen Kindern von der Grammatikalität der Testsätze beeinflusst war, während keine Evidenz für das Erkennen von Grammatikalitätsverletzungen bei jüngeren Kindern gefunden werden konnte. Das asymmetrische Performanzmuster innerhalb der rezeptiven Modalität, das in dieser Arbeit gefunden wurde, erlaubt Rückschlüsse auf die Annahme einer Produktions-Verständnis-Aymmetrie und somit auch auf Theorien zur grammatischen Entwicklung bei Kindern. T3 - Spektrum Patholinguistik - Schriften - 6 KW - Spracherwerb KW - Verbflexion KW - Blickbewegungsmessung KW - Methoden KW - Sprachverständnis KW - Language acquisition KW - verb inflection KW - eye-tracking KW - methods KW - language comprehension Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62046 SN - 978-3-86956-216-2 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Lüdicke, Lars T1 - Constantin von Neurath : eine politische Biographie Y1 - 2014 SN - 978-3-506-77838-3 PB - Schöningh CY - Paderborn ER - TY - THES A1 - Steinhaus, Sebastian Peter T1 - Constructing quantum spacetime T1 - Konstruktion der Quantenraumzeit BT - relation to classical gravity BT - Relation zur klassischen Gravitation N2 - Despite remarkable progress made in the past century, which has revolutionized our understanding of the universe, there are numerous open questions left in theoretical physics. Particularly important is the fact that the theories describing the fundamental interactions of nature are incompatible. Einstein's theory of general relative describes gravity as a dynamical spacetime, which is curved by matter and whose curvature determines the motion of matter. On the other hand we have quantum field theory, in form of the standard model of particle physics, where particles interact via the remaining interactions - electromagnetic, weak and strong interaction - on a flat, static spacetime without gravity. A theory of quantum gravity is hoped to cure this incompatibility by heuristically replacing classical spacetime by quantum spacetime'. Several approaches exist attempting to define such a theory with differing underlying premises and ideas, where it is not clear which is to be preferred. Yet a minimal requirement is the compatibility with the classical theory, they attempt to generalize. Interestingly many of these models rely on discrete structures in their definition or postulate discreteness of spacetime to be fundamental. Besides the direct advantages discretisations provide, e.g. permitting numerical simulations, they come with serious caveats requiring thorough investigation: In general discretisations break fundamental diffeomorphism symmetry of gravity and are generically not unique. Both complicates establishing the connection to the classical continuum theory. The main focus of this thesis lies in the investigation of this relation for spin foam models. This is done on different levels of the discretisation / triangulation, ranging from few simplices up to the continuum limit. In the regime of very few simplices we confirm and deepen the connection of spin foam models to discrete gravity. Moreover, we discuss dynamical, e.g. diffeomorphism invariance in the discrete, to fix the ambiguities of the models. In order to satisfy these conditions, the discrete models have to be improved in a renormalisation procedure, which also allows us to study their continuum dynamics. Applied to simplified spin foam models, we uncover a rich, non--trivial fixed point structure, which we summarize in a phase diagram. Inspired by these methods, we propose a method to consistently construct the continuum theory, which comes with a unique vacuum state. N2 - Trotz bemerkenswerter Fortschritte im vergangenen Jahrhundert, die unser Verständnis des Universums revolutioniert haben, gibt es noch zahlreiche ungeklärte Fragen in der theoretischen Physik. Besondere Bedeutung kommt der Tatsache zu, dass die Theorien, welche die fundamentalen Wechselwirkungen der Natur beschreiben, inkompatibel sind. Nach Einsteins allgemeiner Relativitätstheorie wird die Gravitation durch eine dynamische Raumzeit dargestellt, die von Materie gekrümmt wird und ihrerseits durch die Krümmung die Bewegung der Materie bestimmt. Dem gegenüber steht die Quantenfeldtheorie, die die verbliebenen Wechselwirkungen - elektromagnetische, schwache und starke Wechselwirkung - im Standardmodell der Teilchenphysik beschreibt, in dem Teilchen auf einer statischen Raumzeit -- ohne Gravitation -- miteinander interagieren. Die Hoffnung ist, dass eine Theorie der Quantengravitation diese Inkompatibilität beheben kann, indem, heuristisch, die klassische Raumzeit durch eine 'Quantenraumzeit' ersetzt wird. Es gibt zahlreiche Ansätze eine solche Theorie zu definieren, die auf unterschiedlichen Prämissen und Ideen beruhen, wobei a priori nicht klar ist, welche zu bevorzugen sind. Eine Minimalanforderung an diese Theorien ist Kompatibilität mit der klassischen Theorie, die sie verallgemeinern sollen. Interessanterweise basieren zahlreiche Modelle in ihrer Definition auf Diskretisierungen oder postulieren eine fundamentale Diskretheit der Raumzeit. Neben den unmittelbaren Vorteilen, die Diskretisierungen bieten, z.B. das Ermöglichen numerischer Simulationen, gibt es auch gravierende Nachteile, die einer ausführlichen Untersuchung bedürfen: Im Allgemeinen brechen Diskretisierungen die fundamentale Diffeomorphismensymmetrie der Gravitation und sind in der Regel nicht eindeutig definiert. Beides erschwert die Wiederherstellung der Verbindung zur klassischen, kontinuierlichen Theorie. Das Hauptaugenmerk dieser Doktorarbeit liegt darin diese Verbindung insbesondere für Spin-Schaum-Modelle (spin foam models) zu untersuchen. Dies geschieht auf sehr verschiedenen Ebenen der Diskretisierung / Triangulierung, angefangen bei wenigen Simplizes bis hin zum Kontinuumslimes. Im Regime weniger Simplizes wird die bekannte Verbindung von Spin--Schaum--Modellen zu diskreter Gravitation bestätigt und vertieft. Außerdem diskutieren wir dynamische Prinzipien, z.B. Diffeomorphismeninvarianz im Diskreten, um die Ambiguitäten der Modelle zu fixieren. Um diese Bedingungen zu erfüllen, müssen die diskreten Modelle durch Renormierungsverfahren verbessert werden, wodurch wir auch ihre Kontinuumsdynamik untersuchen können. Angewandt auf vereinfachte Spin-Schaum-Modelle finden wir eine reichhaltige, nicht-triviale Fixpunkt-Struktur, die wir in einem Phasendiagramm zusammenfassen. Inspiriert von diesen Methoden schlagen wir zu guter Letzt eine konsistente Konstruktionsmethode für die Kontinuumstheorie vor, die einen eindeutigen Vakuumszustand definiert. KW - Quantengravitation KW - Spin-Schaum-Modelle KW - Regge Kalkül KW - Renormierung KW - Verfeinerungslimes KW - quantum gravity KW - spin foams KW - regge calculus KW - renormalization and refinement limit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72558 ER - TY - THES A1 - Hermawan, Romy T1 - Coordination and civil service reform in Indonesia (1999-2009) N2 - The background of civil service reform in Indonesia reveals the emergence of the reformation movement in 1998, following the fall of the authoritarian New Order regime. The reformation movement has seen the introduction of reforms in Indonesia's various governmental institutions, including the civil service. The civil service reforms were marked by the revision of Act 8/ 74 with Act 43 of 1999 on Civil Service Administration. The implementation of the civil service reform program, which was carried out by both central and local governments, required cooperation between the actors (in particular, Ministries, agencies and local governments), known as coordination. Currently, the coordination that occurs between actors tends to be rigid and hierarchical. As a result, targets are not efficiently and effectively met. Hierarchical coordination, without a strong public sector infrastructure, tends to have a negative impact on achieving the desired outcomes of the civil service reform program. As an intrinsic part of the New Order regime, hierarchical coordination resulted in inefficiency and lack of efficacy. Despite these inefficiencies, the administration and the political environment have changed significantly as a result of the reform process. Obvious examples of the reforms are changes in recruitment patterns, placement and remuneration policies. However, in the case of Indonesia, it appears that every state institution has its own policy. Thus, it appears that there has not been policy coherence in the civil service reform program, resulting in the lack of a sustainable program. The important thing to examine is how the coordination mechanisms of the civil service reform program in the central government have developed during the reform era in Indonesia The purpose of this study is to analyse the linkages between coordination mechanisms and the actual implementation of civil service reform programs. This is undertaken as a basis for intervention based on the structures and patterns of coordination mechanisms in the implementation of civil service reform programs. The next step is to formulate the development coordination mechanisms, particularly to create structures and patterns of civil service reforms which are more sustainable to the specific characteristics of public sector organisations in Indonesia. The benefits of this research are a stronger understanding of the linkages between the mechanisms of coordination and implementation of civil service reform programs. Through this analysis, the findings can then be applied as a basic consideration in planning a sustainable civil service reform program. In the basis of theoretical issues concerning the linkages between coordination mechanisms and implementation of civil service reform program sustainability, this book explores the type of coordination, which is needed to test the proportional and sustainable concept of the intended civil service reform program in Indonesia. Research conducted through studies, surveys and donors has shown that poor coordination is the major hindrance to the civil service program reform in Indonesia. This research employs a qualitative approach. In this study, the coordination mechanisms and implementations of civil service reform programs are demonstrated by means of case studies of the State Ministry for Administrative Reform, the National Civil Service Agency and the National Public Administration Institute. The coordination mechanisms in these Ministries and agencies were analysed using indicators of effective and efficient coordination. The analysis of the coordination mechanisms shows a tendency towards rigid hierarchical coordination. This raises concerns about fragmentation among departments and agencies at the central government level and calls for integrated civil service reform both at central and local governmental levels. In the context of implementation programs, a hierarchical mechanism of coordination leverages on various aspects, such as the program formulation, implementation flow of the program, the impact of policies, and achievement targets. In particular, there was a shift process of the mainstream civil service reform in the Ministries and agencies which are marked by the emergence of sectoral interest and inefficiencies in the civil service reform program. The primary result of successful civil service reform is increased professionalism in the civil service. The findings on hierarchical mechanisms and the prescriptions which will follow show that the professionalism of Indonesia’s civil service is at stake. The implementation of the program through coordination mechanisms in Ministries and agencies is measured in various dimensions: the centre of coordination, integration of coordination, sustainability of coordination and multidimensionality of coordination. The results of this analysis show that coordination mechanisms and the implementation of civil service reform are more successful when they are integration rather than hierarchical mechanisms. For a successful implementation of the reform program, it is crucial to intervene and change the type of coordination at the central government through the integration approach (hierarchy, market, and network). Furthermore, in order to move towards the integration type mechanism of coordination the separation of the administration and politics in the practice of good governance needs to be carried out immediately and simultaneously. Based on this analysis, it can be concluded that the integration type mechanism of coordination is a suitable for Indonesia for a sustainable civil service reform program. Finally, to achieve coherent civil service reforms, national policies developed according to the central government's priorities are indispensable, establishing a coordination mechanism that can be adhered to throughout all reform sectors. N2 - Seit dem Sturz des autoritären und dem Wechsel zum Regime des „New Order“ im Jahre 1998 haben die Reformbemühungen in der öffentlichen Verwaltung in Indonesien stark zugenommen. Ihren Ursprung nahmen sie mit der Revision des Gesetzes 8/74 und 43 im Jahre 1999 betreffend die Grundlagen der öffentlichen Verwaltung. Implementiert wurde die Reform sowohl durch die Zentralregierung als auch durch die Lokalregierungen. Jedoch erforderte die Implementierung dieses Programmes auch die Zusammenarbeit bzw. die Koordination verschiedener Akteure, wie beispielsweise Ministerien, Behörden, und Lokalregierungen. Die gegenwärtige Koordination zwischen diesen Akteuren ist rigide und hierarchisch. Daraus ergibt sich, dass die gesteckten Ziele nicht effizient und effektiv erreicht werden. Hierarchische Koordination ohne eine gefestigte Verwaltungsstruktur verhindert die Umsetzung des Reformprogrammes. Als intrinsisches Merkmal des „New Order“ Regimes führt die hierarchische Koordination zur Ineffizienz und einem Mangel an Effektivität. Trotz dieser Ineffizienzen haben die Reformen zu signifikanten Veränderungen in der Verwaltung und im politischen Umfeld geführt. Offensichtliche Beispiele der Verwaltungsreform sind Änderungen in der Einstellungs-, Beförderungs- und Entlohnungspraxis. Im Falle Indonesiens jedoch scheint jede einzelne Institution ihr eigenes Regelwerk zu besitzen. Dies deutet darauf hin, dass das Verwaltungsreformprogramm keine allzu große Kohärenz aufgewiesen hat. Es ist hierbei wichtig zu untersuchen wie die Koordinationsmechanismen dieses Programmes sich nach der Reformära in Indonesien entwickelt haben. Diese Studie hat die Absicht, die Verbindungen zwischen den Koordinationsmechanismen und den tatsächlichen Durchführung des Reformprogrammes der öffentlichen Verwaltung zu analysieren. Offensichtlich zeichnete sich dieseweder durch Kohärenz noch eine nachhaltige Implementierung aus. Es ist nun wichtig, eine Richtung zu bestimmen, wie die Koordinationsmechanismen sich entwickeln müssten um Strukturen und Mechanismen zu schaffen, die besser zu den spezifischen Charakteristiken der öffentlichen Verwaltungen in Indonesien passen. Diese Untersuchung trägt dazu bei, die Zusammenhänge zwischen Koordinationsmechanismen und des tatsächlichen Implementationserfolges von Reformprogrammen der öffentlichen Verwaltung zu verstehen. Ein solches Analyseergebnis kann dann zu nachhaltigen Reformbemühungen beitragen. Ausgehend von theoretischen Überlegungen bezüglich der Verbindung von Koordinationsmechanismen und der Implementierung von Reformprogrammen der öffentlichen Verwaltung, erforscht diese Studie verschiedene Aspekte des Koordinationstypus, der notwendig scheint, um das verhältnismäßige und nachhaltigeKonzept des beabsichtigten Reformprogrammes in Indonesien zu testen. Bisherige Forschung auf dem Gebiet der Koordination zeigt, dass das größte Hindernis für ein erfolgreiches Reformprogramm der öffentlichen Verwaltung ein Mangel an Koordination ist. Diese Studie wählt einen qualitativen Ansatz. Sie zeigt die Koordinationsmechanismen bei der Implementation von Reformprogrammen in der öffentlichen Verwaltung an den Fallbeispielen des „Staatsministeriums für Administrative Reformen“, der „Nationalen Agentur für den Öffentlichen Dienst“ und des „Nationalen Instituts für die Öffentliche Verwaltung“. Die Koordinationsmechanismen dieser Ministerien und Institute wurden dabei auf Grundlage von Indikatoren für effektive und effiziente Koordination untersucht. Die Analyse zeit tendenziell, dass die Koordination einerigide und hierarchische Form annimmt. Dies lässt Bedenken über die Fragmentierung der Abteilungen und Agenturen der Zentralregierung aufkommen und verdeutlicht die Notwendigkeit einer integrierten Reform der öffentlichen Verwaltung sowohl auf der Ebene der Zentralregierung als auch der Lokalregierungen. Im Kontext der Implementierungsbemühungen berührt eine hierarchische Koordination verschiedene Aspekte wie zum Beispiel die Formulierung des Programmes, der Ablauf der Implementation, der Einfluss des Regelwerks und die Erreichung der gesteckten Ziele. Insbesondere konnte beobachtet werden, dass sich der grundlegende Verwaltungsprozesses in den Ministerien und den Agenturen verlagert hat, was sich durch die Verstärkung sektoraler Interessen und zunehmender Ineffizienzen des Reformprogrammes ausdrückt. Das derzeitige Ergebnis ist im Wesentlichen eine zunehmende Professionalisierung des öffentlichen Dienstes. Die Befunde über hierarchische Mechanismen und die danach folgenden Vorgaben stellen die Professionalität des öffentlichen Dienstes in Indonesien in Frage. Die Implementierung des Reformprogrammes durch Koordinationsmechanismen in Ministerien und Agenturen werden auf mehreren Dimensionen gemessen: der Ausgangspunkt der Koordination, ihre Einbindung, Nachhaltigkeit und Mehrdimensionalität. Die Ergebnisse dieser Analyse zeigen, dass integrative Koordinationsmechanismen und Implementationen erfolgreicher sind als hierarchische. Um das restliche Reformprogramm erfolgreich zu einem Ende zu bringen, erscheint es wesentlich einzugreifen und die vorherrschende Koordination in der Zentralregierung durch einen integrativen Ansatz zu ersetzen (Hierarchie, Markt, Netzwerk). Darüber hinaus muss, um dies zu erreichen, die Trennung von Verwaltung und Politik im Sinne der guten Regierungsführung gleichzeitig umgesetzt werden. Auf Grundlage dieser Analyse kann gefolgert werden, dass der integrative Ansatz bei der Koordination geeignet erscheint, um das Reformprogramm der öffentlichen Verwaltung in Indonesien umzusetzen. Schlussendlich, um eine einheitliche Reform der öffentlichen Verwaltung zu erreichen bedarf es einer zentralen Koordinationsstrategie der Zentralregierung, die einheitlich in allen Reformsektoren befolgt wird. KW - Indonesien KW - Verwaltungsreform KW - Geschichte 1999-2009 KW - Coordination KW - Civil Service Reform KW - Bureaucracy Y1 - 2014 SN - 978-602-284-061-9 PB - Center of South South Cooperation Studies, Univ. CY - Brawijaya ER - TY - THES A1 - Balzer, Arnim T1 - Crab flare observations with H.E.S.S. phase II T1 - Crab Flare Observations with H.E.S.S. Phase II N2 - The H.E.S.S. array is a third generation Imaging Atmospheric Cherenkov Telescope (IACT) array. It is located in the Khomas Highland in Namibia, and measures very high energy (VHE) gamma-rays. In Phase I, the array started data taking in 2004 with its four identical 13 m telescopes. Since then, H.E.S.S. has emerged as the most successful IACT experiment to date. Among the almost 150 sources of VHE gamma-ray radiation found so far, even the oldest detection, the Crab Nebula, keeps surprising the scientific community with unexplained phenomena such as the recently discovered very energetic flares of high energy gamma-ray radiation. During its most recent flare, which was detected by the Fermi satellite in March 2013, the Crab Nebula was simultaneously observed with the H.E.S.S. array for six nights. The results of the observations will be discussed in detail during the course of this work. During the nights of the flare, the new 24 m × 32 m H.E.S.S. II telescope was still being commissioned, but participated in the data taking for one night. To be able to reconstruct and analyze the data of the H.E.S.S. Phase II array, the algorithms and software used by the H.E.S.S. Phase I array had to be adapted. The most prominent advanced shower reconstruction technique developed by de Naurois and Rolland, the template-based model analysis, compares real shower images taken by the Cherenkov telescope cameras with shower templates obtained using a semi-analytical model. To find the best fitting image, and, therefore, the relevant parameters that describe the air shower best, a pixel-wise log-likelihood fit is done. The adaptation of this advanced shower reconstruction technique to the heterogeneous H.E.S.S. Phase II array for stereo events (i.e. air showers seen by at least two telescopes of any kind), its performance using MonteCarlo simulations as well as its application to real data will be described. N2 - Das H.E.S.S. Experiment misst sehr hochenergetische Gammastrahlung im Khomas Hochland von Namibia. Es ist ein sogenanntes abbildendes atmosphärisches Cherenkov-Teleskopsystem welches in der 1. Phase, die im Jahr 2004 mit der Datennahme begann, aus vier identischen 13 m Spiegelteleskopen bestand. Seitdem hat sich H.E.S.S. als das erfolgreichstes Experiment in der bodengebundenen Gammastrahlungsastronomie etabliert. Selbst die älteste der mittlerweile fast 150 entdeckten Quellen von sehr hochenergetischer Gammastrahlung, der Krebsnebel, fasziniert immernoch Wissenschaftler mit neuen bisher unbekannten und unerwarteten Phänomenen. Ein Beispiel dafür sind die vor kurzem entdeckten sehr energiereichen Ausbrüche von hochenergetischer Gammastrahlung. Bei dem letzten deratigen Ausbruch des Krebsnebels im März 2013 hat das H.E.S.S. Experiment für sechs Nächte simultan mit dem Fermi-Satelliten, welcher den Ausbruch entdeckte, Daten genommen. Die Analyse der Daten, deren Ergebnis und deren Interpretation werden im Detail in dieser Arbeit vorgestellt. Während dieser Beobachtungen befand sich ein neues 24 m × 32 m großes Spiegelteleskop, das H.E.S.S. II- Teleskop, noch in seiner Inbetriebnahme, trotzdem hat es für eine dieser sechs Nächte an der Datennahme des gesamten Teleskopsystems teilgenommen. Um die Daten rekonstruieren und analysieren zu können, mussten die für die 1. Phase des Experiments entwickelten Algorithmen und die Software des H.E.S.S.- Experiments angepasst werden. Die fortschrittlichste Schauerrekonstruktionsmethode, welche von de Naurois und Rolland entwickelt wurde, basiert auf dem Vergleich von echten Schauerbildern, die mit Hilfe der Cherenkov-Kameras der einzelnen Teleskope aufgenommen wurden, mit Schauerschablonen die mit Hilfe eines semianalytischen Modells erzeugt wurden. Das am besten passende Bild und damit auch alle relevanten Schauerparameter, wird mit Hilfe einer pixelweisen Loglikelihood-Anpassung ermittelt. Die nötigen Änderungen um Multiteleskopereignisse, welche vom heterogenen H.E.S.S. Phase II Detektor gemessen wurden, mit Hilfe dieser fortschrittlichen Schauerrekonstruktionsmethode analysieren zu können, sowie die resultierenden Ergebnisse von MonteCarlo-Simulationen, als auch die Anwendung auf echte Daten, werden im Rahmen dieser Arbeit präsentiert. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72545 ER - TY - THES A1 - Reiter, Karsten T1 - Crustal stress variability across spatial scales - examples from Canada, Northern Switzerland and a South African gold mine T1 - Die Variabilität der krustalen Spannungen auf räumlichen unterschiedlichen Skalen – Beispiele von Kanada, der Nordschweiz und einer Südafrikanischen Goldmine N2 - The quantitative descriptions of the state of stress in the Earth’s crust, and spatial-temporal stress changes are of great importance in terms of scientific questions as well as applied geotechnical issues. Human activities in the underground (boreholes, tunnels, caverns, reservoir management, etc.) have a large impact on the stress state. It is important to assess, whether these activities may lead to (unpredictable) hazards, such as induced seismicity. Equally important is the understanding of the in situ stress state in the Earth’s crust, as it allows the determination of safe well paths, already during well planning. The same goes for the optimal configuration of the injection- and production wells, where stimulation for artificial fluid path ways is necessary. The here presented cumulative dissertation consists of four separate manuscripts, which are already published, submitted or will be submitted for peer review within the next weeks. The main focus is on the investigation of the possible usage of geothermal energy in the province Alberta (Canada). A 3-D geomechanical–numerical model was designed to quantify the contemporary 3-D stress tensor in the upper crust. For the calibration of the regional model, 321 stress orientation data and 2714 stress magnitude data were collected, whereby the size and diversity of the database is unique. A calibration scheme was developed, where the model is calibrated versus the in situ stress data stepwise for each data type and gradually optimized using statistically test methods. The optimum displacement on the model boundaries can be determined by bivariate linear regression, based on only three model runs with varying deformation ratio. The best-fit model is able to predict most of the in situ stress data quite well. Thus, the model can provide the full stress tensor along any chosen virtual well paths. This can be used to optimize the orientation of horizontal wells, which e.g. can be used for reservoir stimulation. The model confirms regional deviations from the average stress orientation trend, such as in the region of the Peace River Arch and the Bow Island Arch. In the context of data compilation for the Alberta stress model, the Canadian database of the World Stress Map (WSM) could be expanded by including 514 new data records. This publication of an update of the Canadian stress map after ~20 years with a specific focus on Alberta shows, that the maximum horizontal stress (SHmax) is oriented southwest to northeast over large areas in Northern America. The SHmax orientation in Alberta is very homogeneous, with an average of about 47°. In order to calculate the average SHmax orientation on a regular grid as well as to estimate the wave-length of stress orientation, an existing algorithm has been improved and is applied to the Canadian data. The newly introduced quasi interquartile range on the circle (QIROC) improves the variance estimation of periodic data, as it is less susceptible to its outliers. Another geomechanical–numerical model was built to estimate the 3D stress tensor in the target area ”Nördlich Lägern” in Northern Switzerland. This location, with Opalinus clay as a host rock, is a potential repository site for high-level radioactive waste. The performed modelling aims to investigate the sensitivity of the stress tensor on tectonic shortening, topography, faults and variable rock properties within the Mesozoic sedimentary stack, according to the required stability needed for a suitable radioactive waste disposal site. The majority of the tectonic stresses caused by the far-field shortening from the South are admitted by the competent rock units in the footwall and hanging wall of the argillaceous target horizon, the Upper Malm and Upper Muschelkalk. Thus, the differential stress within the host rock remains relatively low. East-west striking faults release stresses driven by tectonic shortening. The purely gravitational influence by the topography is low; higher SHmax magnitudes below topographical depression and lower values below hills are mainly observed near the surface. A complete calibration of the model is not possible, as no stress magnitude data are available for calibration, yet. The collection of this data will begin in 2015; subsequently they will be used to adjust the geomechanical–numerical model again. The third geomechanical–numerical model investigates the stress variation in an ultra-deep gold mine in South Africa. This reservoir model is spatially one order of magnitude smaller than the previous local model from Northern Switzerland. Here, the primary focus is to investigate the hypothesis that the Mw 1.9 earthquake on 27 December 2007 was induced by stress changes due to the mining process. The Coulomb failure stress change (DeltaCFS) was used to analyse the stress change. It confirmed that the seismic event was induced by static stress transfer due to the mining progress. The rock was brought closer to failure on the derived rupture plane by stress changes of up to 1.5–15MPa, in dependence of the DeltaCFS analysis type. A forward modelling of a generic excavation scheme reveals that with decreasing distance to the dyke the DeltaCFS values increase significantly. Hence, even small changes in the mining progress can have a significant impact on the seismic hazard risk, i.e. the change of the occurrence probability to induce a seismic event of economic concern. N2 - Die quantitative Beschreibung des Spannungszustandes in der Erdkruste sowie dessen räumlichzeitliche Änderung ist von großer Bedeutung für wissenschaftliche Fragestellungen, sowie für industrielle Anwendung im geotechnischen Bereich. Bei jedem Eingriff des Menschen in den Untergrund (Bohrungen, Tunnel, Kavernen, Reservoirmanagement etc.) wird der Spannungszustand verändert. Entscheidend ist dabei, ob davon möglicherweise (unvorhersehbare) Gefahren, wie zum Beispiel induzierte Seismizität ausgehen können. Genauso wichtig ist auch ein Verständnis des ungestörten Spannungszustandes in der Erdkruste, um zum Beispiel sichere Bohrlochpfade bereits in der Planungsphase zu bestimmen. Selbiges gilt für eine optimale Konfiguration von Injektions- und Produktionsbohrung, wenn künstliche Fluidwegsamkeiten stimuliert werden müssen. Die vorliegende kumulative Dissertation besteht aus vier Manuskripten, welche teilweise bereits publiziert sind. Fokus der beiden ersten Publikationen ist die potentielle Nutzung von Geothermie in der Provinz Alberta (Kanada). Dafür wurde ein 3-D-geomechanisch-numerisches Modell erstellt, das den kompletten gegenwärtigen 3-D-Spannungstensor in der oberen Erdkruste quantifiziert. Für die Kalibrierung des regionalen Modells wurde ein Datensatz von 321 Spannungsorientierungen und 2714 Spannungsmagnituden zusammengetragen, dessen Größe und Diversität einmalig ist. Aufgrund der vorhandenen Datenbasis wurde ein Kalibrierungsschema entwickelt, bei dem das Modell statistisch abgesichert an jedem einzelnen vorhandenen Datentyp schrittweise getestet und optimiert wird. Das optimale Verhältnis der Randbedingungen des Modells kann dabei durch bivariate lineare Regression, auf der Basis von nur drei Modellläufen bestimmt werden. Das Best-fit-Modell kann den Großteil der in situ Spannungsdaten sehr gut reproduzieren. So kann das Modell den 3-D-Spannungstensor entlang beliebiger virtueller Bohrlochpfade liefern, die zum Beispiel für die Planung der optimalen Orientierung horizontaler Stimulationsbohrungen genutzt werden können. Das Modell bestätigt regionale Abweichungen der Spannungsorientierung vom generellen Trend, wie z.B. in der Region des Peace River Bogens und des Bow Island Bogen. Im Zusammenhang mit der Erstellung des Alberta-Spannungsmodells wurde die Datenbank der Weltspannungskarte (WSM) in der Region Kanada um 514 neue Datensätzen erweitert und alle bestehenden Datensätze überprüft. Dies ermöglichte es nach ca. 20 Jahren, eine aktualisierte Spannungskarte für Kanada mit einem vertiefenden Fokus auf die Provinz Alberta zu publizieren. Die maximale horizontale Spannung (SHmax) in weiten Teilen Nordamerikas ist Südwest nach Nordost orientiert. Die SHmax Orientierung in Alberta ist sehr homogen, im Mittel etwa 47°. Zur Berechnung der mittleren SHmax–Orientierung auf einem regelmäßigen Gitter und zur Ableitung des Spannungsmusters dieser Orientierung wurde ein existierender Algorithmus verbessert und auf den kanadischen Datensatz angewendet. Dabei wurde der Quasi Interquartilsabstand am Kreis (QIROC) neu eingeführt, um die Varianz eines periodischen Datensatzes besser abschätzen zu können. Der modifizierte Algorithmus ist weniger anfällig gegenüber Ausreißern in periodischen Datensätzen, als der Vorgänger. Ein weiteres geomechanisch-numerisches Modell zur kontinuierlichen Beschreibung des 3-D-Spannungstensors wurde für das Gebiet „Nördlich Lägern” in der Nordschweiz erstellt. Diese Region ist ein potentieller Endlagerstandort für hochradioaktiven Abfall, eingelagert im Wirtsgestein Opalinuston. Der Fokus des Modells ist es, die Sensitivität des Spannungsfeldes von tektonischem Schub, Topographie, Störungen und den variablen Gesteinseigenschaften im mesozoischen Sedimentstapel auf den Spannungstensor zu untersuchen. Der Hauptanteil der tektonischen Spannungen, verursacht durch den Fernfeldschub von Süden, wird vor allem durch die mechanisch kompetenten Schichten im Liegenden und Hangenden des tonigen Zielhorizontes, dem Oberen Malm und dem Oberen Muschelkalk aufgenommen. Dadurch bleiben die Differenzspannungen in den tonigen Formationen relativ gering. Ost-West streichende Störungen bauen zudem Spannungen des Fernfeldes ab. Der rein gravitative Einfluss der Topographie ist gering; höhere SHmax–Magnituden unterhalb topographischer Depressionen und geringere Werte unter Anhöhen sind vor allem oberflächennah zu beobachten. Eine Kalibrierung des Modells ist nicht abschließend möglich, da im Untersuchungsgebiet keine Spannungsmagnituden zur Verfügung stehen. Diese werden erst in der nächsten Etappe der Endlagersuche, die in 2015 beginnen wird erhoben, sodass das Modell dann gegebenenfalls angepasst werden muss. Das dritte geomechanisch-numerische Modell eines Abschnitts einer tiefliegenden Goldmine in Südafrika ist räumlich gesehen nochmals eine Größenordnung kleiner als das vorherige lokale Modell in der Nordschweiz. Es wurde die Hypothese untersucht, ob das Mw 1.9 Erdbeben am 27. Dezember 2007 durch den Abbau verursacht wurde. Die Analyse der durch die Abbautätigkeit umgelagerten Spannungen unter Nutzung der Spannungsänderung des Coulomb Versagenskriteriums (DeltaCFS) zeigt klar, dass das seismische Ereignis induziert wurde. Das Gestein wurde entlang der Bruchfläche um 1.5 bis 15MPa dem Versagen näher gebracht, je nachdem welche DeltaCFS Analysemethode angewendet wird und unter Berücksichtigung der Unsicherheiten in der Orientierung der Herdflächenlösung sowie der Modellparameter. Eine Vorwärtsmodellierung eines generischen Abbauprozesses zeigt exponentiell steigende DeltaCFS–Werte mit abnehmender Distanz des Abbaus zu dem magmatischen Aufstiegskanal, in dem das Beben stattfand. Folglich haben geringe Änderungen des Abbauprozesses entscheidenden Einfluss auf die Eintretenswahrscheinlichkeit eines seismischen Ereignisses. KW - stress pattern KW - tectonic stress KW - circular statistics KW - 3D geomechanical numerical model KW - crustal stress KW - tektonische Spannungen KW - Spannungsmuster KW - krustale Spannungen KW - zirkulare Statistik KW - 3D geomechanisch-nummerische Modellierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76762 ER - TY - THES A1 - Feld, Christian T1 - Crustal structure of the Eratosthenes Seamount, Cyprus and S. Turkey from an amphibian wide-angle seismic profile T1 - Die Krustenstruktur von dem Eratosthenes Seeberg, Zypern und der Süd-Türkei anhand eines amphibischen seismischen Weitwinkel Profils N2 - In March 2010, the project CoCoCo (incipient COntinent-COntinent COllision) recorded a 650 km long amphibian N-S wide-angle seismic profile, extending from the Eratosthenes Seamount (ESM) across Cyprus and southern Turkey to the Anatolian plateau. The aim of the project is to reveal the impact of the transition from subduction to continent-continent collision of the African plate with the Cyprus-Anatolian plate. A visual quality check, frequency analysis and filtering were applied to the seismic data and reveal a good data quality. Subsequent first break picking, finite-differences ray tracing and inversion of the offshore wide-angle data leads to a first-arrival tomographic model. This model reveals (1) P-wave velocities lower than 6.5 km/s in the crust, (2) a variable crustal thickness of about 28 - 37 km and (3) an upper crustal reflection at 5 km depth beneath the ESM. Two land shots on Turkey, also recorded on Cyprus, airgun shots south of Cyprus and geological and previous seismic investigations provide the information to derive a layered velocity model beneath the Anatolian plateau and for the ophiolite complex on Cyprus. The analysis of the reflections provides evidence for a north-dipping plate subducting beneath Cyprus. The main features of this layered velocity model are (1) an upper and lower crust with large lateral changes of the velocity structure and thickness, (2) a Moho depth of about 38 - 45 km beneath the Anatolian plateau, (3) a shallow north-dipping subducting plate below Cyprus with an increasing dip and (4) a typical ophiolite sequence on Cyprus with a total thickness of about 12 km. The offshore-onshore seismic data complete and improve the information about the velocity structure beneath Cyprus and the deeper part of the offshore tomographic model. Thus, the wide-angle seismic data provide detailed insights into the 2-D geometry and velocity structures of the uplifted and overriding Cyprus-Anatolian plate. Subsequent gravity modelling confirms and extends the crustal P-wave velocity model. The deeper part of the subducting plate is constrained by the gravity data and has a dip angle of ~ 28°. Finally, an integrated analysis of the geophysical and geological information allows a comprehensive interpretation of the crustal structure related to the collision process. N2 - Im März 2010 wurden im Rahmen des "CoCoCo"-Projektes ein 650km langes amphibisches, seismisches Weitwinkel Profil aufgenommen. Dieses erstreckte sich von dem Eratosthenes Seeberg (ESM) über Zypern und der Süd-Türkei bis zum anatolischen Plateau. Das Hauptziel des Projektes ist es, den Einfluss zu untersuchen, der von dem Übergang eines Subduktion Prozesses hin zu einer Kontinent-Kontinent Kollision der afrikanischen Platte mit der zyprisch-anatolischen Platte hervorgerufen wird. Die seismischen Daten wurden einer visuelle Qualitätsüberprüfung, Frequenz-Analyse und Filterung unterzogen und zeigten eine gute Qualität. Das darauf folgende Picken der Ersteinstätze, eine Finite-Differenzen Raytracing und eine Inversion der offshore Weitwinkel Daten, führte zu einem Laufzeit Tomographie Model. Das Modell zeigt (1) P-Wellengeschwindigkeiten kleiner als 6.5 km/s in der Kruste, (2) eine variable Krustenmächtigkeit von 28 - 37 km und (3) eine obere Krustenreflektion in 5 km Tiefe unter dem ESM. Zwei Landschüsse in der Türkei, ebenfalls aufgenommen auf Zypern, Luftkanonen-Schüsse südlich von Zypern und vorausgegangene geologische und seismische Untersuchungen lieferten die Grundlage, um ein geschichtetes Geschwindigkeitsmodell für das anatolische Plateau und für den Ophiolith-Komplex auf Zypern abzuleiten. Die Analyse der Reflexionen liefert den Beweis für eine nach Norden einfallende Platte welche unter Zypern subduziert. Die Hauptkennzeichen dieses geschichteten Geschwindigkeitsmodelles sind (1) eine obere und untere Kruste mit starken lateral Änderungen in Geschwindigkeit und Mächtigkeit, (2) eine Mohotiefe in 38 - 45 km unter dem anatolischen Plateau, (3) eine flach nach Norden einfallende Platte unter Zypern mit ansteigendem Einfallwinkel und (4) eine typische Ophiolith Sequenz auf Zypern mit einer Gesamtmächtigkeit von 12 km. Die seismischen offshore / onshore Daten komplettieren und verbessern die bisherigen Kenntnisse über die Geschwindigkeitsstruktur unter Zypern und des tieferen Bereiches der offshore Tomographie. Damit liefert die Weitwinkel Seismik detaillierte Einblicke in die 2-D Geometrie und die Geschwindigkeitsstrukturen der angehobenen und überlagerten zyprisch-anatolischen Platte. Die darauf folgende Gravimetrie Modellierung bestätigt und erweitert das P-Wellen Krusten-Geschwindigkeits Modell. Der tiefere Teil der subduzierten Platte, welche einen Einfallswinkel von ~ 28° hat, wurde durch die Gravimetrie Daten belegt. Letztlich erlaubt eine ganzheitliche Analyse von geophysikalischen und geologischen Informationen die umfassende Interpretation der Krustenstruktur welche in Verbindung mit dem Kollisions Prozess steht. KW - incipient continent-continent collision KW - crustal structure of the Eratosthenes Seamount KW - controlled source wide angle seismic KW - crustal structure of south central Turkey KW - Cyprus arc KW - aktive Weitewinkel-Seismik KW - Krustenstruktur des Eratosthenes Seeberges KW - beginnende Kontinent-Kontinent Kollision KW - Krustenstruktur der Süd-Türkei KW - Zypernbogen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73479 ER - TY - THES A1 - Kunze, Christoph T1 - Das Merkmal "unbefugter" in den Strafnormen des Besonderen Teils des StGB T2 - Schriftenreihe zum Strafrecht Y1 - 2014 SN - 978-3-428-14313-9 U6 - https://doi.org/10.3790/978-3-428-54313-7 VL - 259 PB - Duncker & Humblot CY - Berlin ER - TY - THES A1 - Loladze, Besik T1 - Das Rechtsstaatsprinzip in der Verfassung Georgiens und in der Rechtsprechung des Verfassungsgerichts Georgiens T1 - The rule of law in the Constitution of Georgia and in the jurisdiction of the Constitutional Court of Georgia N2 - Die Dissertation wird der rechtsstaatlichen Problematik in der Verfassung von Georgien und in der Rechtsprechung des Verfassungsgerichts Georgiens gewidmet und bietet eine umfangreiche Analyse der wichtigsten Rechtsstaatsmerkmale in dieser Hinsicht. Neben dieser Analyse der früheren und bestehenden Gegebenheiten, prognostiziert sie mittels der perspektivistischen Denkmodele zukünftige Entwicklungen und schlägt eventuelle Lösungswege von Problemen vor. Bei der Arbeit an der Dissertation wurde insbesondere die reiche Erfahrung der deutschen Rechtsstaatsdogmatik in Anspruch genommen. N2 - This dissertation focuses on the problems regarding the rule of law in the Constitution of Georgia and in the jurisdiction of the Constitutional Court of Georgia, and offers an extensive analysis of the most important constitutional features in this regard. Alongside this analysis of the former and current situation, this dissertation predicts future developments using perspective theoretical models and suggests potential approaches to problems. The work on this dissertation drew upon the rich experience of German constitutional dogmatics in particular. KW - Staatsrecht KW - Rechtsstaatsprinzip KW - Verfassung KW - Verfassungsgericht KW - Georgien KW - constitutional law KW - rule of law KW - constitution KW - constitutional court KW - Georgia Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75425 ER - TY - THES A1 - Cao, Thanh Clara T1 - Das vietnamesische Erbrecht im Vergleich zum deutschen Erbrecht T2 - Nomos Universitätsschriten Recht Y1 - 2014 SN - 978-3-8487-0724-9 VL - 824 PB - Nomos Verl.-Ges CY - Baden-Baden ER - TY - THES A1 - Heise, Arvid T1 - Data cleansing and integration operators for a parallel data analytics platform T1 - Datenreinigungs- und Integrationsoperatoren für ein paralles Datenanalyseframework N2 - The data quality of real-world datasets need to be constantly monitored and maintained to allow organizations and individuals to reliably use their data. Especially, data integration projects suffer from poor initial data quality and as a consequence consume more effort and money. Commercial products and research prototypes for data cleansing and integration help users to improve the quality of individual and combined datasets. They can be divided into either standalone systems or database management system (DBMS) extensions. On the one hand, standalone systems do not interact well with DBMS and require time-consuming data imports and exports. On the other hand, DBMS extensions are often limited by the underlying system and do not cover the full set of data cleansing and integration tasks. We overcome both limitations by implementing a concise set of five data cleansing and integration operators on the parallel data analytics platform Stratosphere. We define the semantics of the operators, present their parallel implementation, and devise optimization techniques for individual operators and combinations thereof. Users specify declarative queries in our query language METEOR with our new operators to improve the data quality of individual datasets or integrate them to larger datasets. By integrating the data cleansing operators into the higher level language layer of Stratosphere, users can easily combine cleansing operators with operators from other domains, such as information extraction, to complex data flows. Through a generic description of the operators, the Stratosphere optimizer reorders operators even from different domains to find better query plans. As a case study, we reimplemented a part of the large Open Government Data integration project GovWILD with our new operators and show that our queries run significantly faster than the original GovWILD queries, which rely on relational operators. Evaluation reveals that our operators exhibit good scalability on up to 100 cores, so that even larger inputs can be efficiently processed by scaling out to more machines. Finally, our scripts are considerably shorter than the original GovWILD scripts, which results in better maintainability of the scripts. N2 - Die Datenqualität von Realweltdaten muss ständig überwacht und gewartet werden, damit Organisationen und Individuen ihre Daten verlässlich nutzen können. Besonders Datenintegrationsprojekte leiden unter schlechter Datenqualität in den Quelldaten und benötigen somit mehr Zeit und Geld. Kommerzielle Produkte und Forschungsprototypen helfen Nutzern die Qualität in einzelnen und kombinierten Datensätzen zu verbessern. Die Systeme können in selbständige Systeme und Erweiterungen von bestehenden Datenbankmanagementsystemen (DBMS) unterteilt werden. Auf der einen Seite interagieren selbständige Systeme nicht gut mit DBMS und brauchen zeitaufwändigen Datenimport und -export. Auf der anderen Seite sind die DBMS Erweiterungen häufig durch das unterliegende System limitiert und unterstützen nicht die gesamte Bandbreite an Datenreinigungs- und -integrationsaufgaben. Wir überwinden beide Limitationen, indem wir eine Menge von häufig benötigten Datenreinigungs- und Datenintegrationsoperatoren direkt in der parallelen Datenanalyseplattform Stratosphere implementieren. Wir definieren die Semantik der Operatoren, präsentieren deren parallele Implementierung und entwickeln Optimierungstechniken für die einzelnen und mehrere Operatoren. Nutzer können deklarative Anfragen in unserer Anfragesprache METEOR mit unseren neuen Operatoren formulieren, um die Datenqualität von einzelnen Datensätzen zu erhöhen, oder um sie zu größeren Datensätzen zu integrieren. Durch die Integration der Operatoren in die Hochsprachenschicht von Stratosphere können Nutzer Datenreinigungsoperatoren einfach mit Operatoren aus anderen Domänen wie Informationsextraktion zu komplexen Datenflüssen kombinieren. Da Stratosphere Operatoren durch generische Beschreibungen in den Optimierer integriert werden, ist es für den Optimierer sogar möglich Operatoren unterschiedlicher Domänen zu vertauschen, um besseren Anfrageplänen zu ermitteln. Für eine Fallstudie haben wir Teile des großen Datenintegrationsprojektes GovWILD auf Stratosphere mit den neuen Operatoren nachimplementiert und zeigen, dass unsere Anfragen signifikant schneller laufen als die originalen GovWILD Anfragen, die sich auf relationale Operatoren verlassen. Die Evaluation zeigt, dass unsere Operatoren gut auf bis zu 100 Kernen skalieren, sodass sogar größere Datensätze effizient verarbeitet werden können, indem die Anfragen auf mehr Maschinen ausgeführt werden. Schließlich sind unsere Skripte erheblich kürzer als die originalen GovWILD Skripte, was in besserer Wartbarkeit unserer Skripte resultiert. KW - data KW - cleansing KW - holistic KW - parallel KW - map reduce KW - Datenreinigung KW - Datenintegration KW - ganzheitlich KW - parallel KW - map reduce Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77100 ER - TY - THES A1 - Späthe, Michael T1 - Der Ausbau der informatorischen Polizeibefugnisse in Brandenburg : eine verfassungsrechtliche Untersuchung der erweiterten Polizeibefugnisse zur Gefahren- und Informationsvorsorge T2 - Schriften zum Staats-, Verwaltungs- und Europarecht Y1 - 2014 SN - 978-3-631-64198-0 SN - 2193-1143 VL - 1 PB - Lang CY - Frankfurt am Main ER - TY - THES A1 - Schnabel, Patrick Roger T1 - Der Dialog nach Art. 17 III AEUV T2 - Jus ecclesiasticum Y1 - 2014 SN - 978-3-16-153069-2 SN - 0449-4349 VL - 108 PB - Mohr Siebeck CY - Tübingen ER - TY - THES A1 - Wölbern, Jan Philipp T1 - Der Häftlingsfreikauf aus der DDR 1962/63 - 1989 : zwischen Menschenhandel und humanitären Aktionen T2 - Analysen und Dokumente Y1 - 2014 SN - 978-3-525-35079-9 VL - 38 PB - Vandenhoeck & Ruprecht CY - Göttingen ER - TY - THES A1 - Emadpour, Masoumeh T1 - Development of tools for inducible gene expression in choroplasts Y1 - 2014 ER -