TY - THES A1 - Dümke, Christian T1 - Daseinsvorsorge, Wettbewerb und kommunale Selbstverwaltung im Bereich der liberalisierten Energiewirtschaft T1 - Public service, competition and local self-government in liberalized energy supply N2 - Die Arbeit befasst sich zunächst mit der Analyse und Einordnung des Begriffs der Daseinsvorsorge und deren Erbringung durch den Staat. Schwerpunkt der Betrachtung bildet dabei die Energieversorgung als klassische Aufgabe staatlicher Daseinsvorsorge. Weiterhin wird der durch die Liberalisierung der Energieversorgung im Jahr 1998 eingeleitete Wandel von sog. natürlichen Monopolen, hin zu einem wettbewerblichen System betrachtet. Dabei wird aufgezeigt, dass sich durch die Einführung des Wettbewerbs weder die damit erhofften Kostenreduzierungen, noch das von Kritikern befürchtete Sterben der kommunalen Energieversorger bewahrheitet haben. Statt einer freien Preisbildung im Wettbewerb ist es zu einer faktischen Verlagerung der früher staatlich festgesetzten Energiepreisgenehmigung auf die Gerichte gekommen, die hierfür jedoch nicht ausgelegt sind. Kommunale Stadtwerke haben sich in der wettbewerblichen Energieversorgung dagegen so gut behauptet, dass seit einiger Zeit ein Trend zur Rekommunalisierung von Energieversorgung auf kommunaler Ebene zu verzeichnen ist. Diesem offensichtlichen Wunsch nach einer gesteigerten Einflussnahme der Gemeinden auf die örtliche Energieversorgung läuft der aktuelle Rechtsrahmen der energierechtlichen Konzessionsvergabe in Gestalt des § 46 EnWG und seiner Auslegung durch die Rechtsprechung der Zivilgerichte zuwider. Die Arbeit zeigt auf, dass von Beginn der Liberalisierung der kommunale Einfluss auf die örtliche Konzessionsvergabe schrittweise und stetig beschnitten wurde, so dass gegenwärtig ein Zustand der Aushöhlung erreicht ist, der als unzulässiger Eingriff in den geschützten Kernbereich der kommunalen Selbstverwaltungsgarantie i.S.d. Art. 28 II GG anzusehen ist. N2 - The work deals first with the analysis and classification of the concept of public service and their provision by the state. Focus of the analysis forms the energy supply as a classical task of public service. Furthermore becomes by the liberalization of the energy supply in 1998 initiated changes of so-called natural monopolies considered towards a competitive system. Besides, it is indicated that by the introduction of the competition neither the cost reductions expected with it, nor the death of the municipal energy providers feared by critics have proved to be true. Instead of a free prize education in the competition it has come for an actual misalignment of the earlier by the state settled energy price approval on the courts who are not laid out for this, nevertheless. Municipal public utilities have asserted themselves in the competitive energy supply against it so well that since some time a trend towards the remunicipalising is to be registered by energy supply at municipal level. The topical legal framework of the energy-juridical concession assignment runs counter to this evident wish for an increased influencing control of the municipalities on the local energy supply in the form of §46 to EnWG and his interpretation by the administration of justice of the civil courts. The work indicates that from beginning of the liberalisation the municipal influence on the local concession assignment was cut gradually and steadily, so that presently a state of the hollow is reached, as an inadmissible intervention in the protected core area of the municipal self-government guarantee i. S. d. Article. 28 II GG is to be considered. T3 - KWI-Gutachten - 10 KW - Energierecht KW - Rekommunalisierung KW - Daseinsvorsorge KW - public service KW - remunicipalising KW - energy supply KW - liberalization of energy supply Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73914 SN - 978-3-86956-314-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Zajnulina, Marina T1 - Optical frequency comb generation in optical fibres T1 - Generierung von optischen Frequenzkämmen in optischen Fasern N2 - Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments. Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method. This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS. N2 - Optische Frequenzkämme (OFK) stellen ein diskretes optisches Spektrum mit phasenkorrelierten Linien dar, die gleichen spektralen Abstand voneinander haben und fast gleiche Intensität über einen größeren Spektralbereich aufweisen. In modengelockten Lasern generierte Kämme haben sich als höchst effizient für die Kalibrierung von hochauflösenden (Auflösungsvermögen > 50000) astronomischen Spektrografen erwiesen. Die astronomische Beobachtung von verschiedenen Galaxie-Strukturen oder die Studien der Milchstraße werden jedoch mit Hilfe von nieder- bis mittelauflösenden Instrumenten gemacht. Zu solchen Instrumenten gehören zum Beispiel der Multi-Spectroscopic-Exproler (MUSE), der gerade für das Very-Large-Telescope (VLT) der Europäischen Südsternwarte (ESO) entwickelt wird, und das 4-metre-Multi-Object-Spectroscopic-Telescope (4MOST), das sich in der Entwicklung für das ESO-VISTA-4,1m-Teleskop befindet. Die existierenden Anpassungen von OFK von modengelockten Lasern sind für solche Instrumente nicht auflösbar. Im Rahmen dieser Arbeit wird ein faserbasierter Ansatz für die Generierung von OFK für den Bereich der nieder- bis mittelauflösenden Instrumente numerisch studiert. Die experimentelle Umsetzung dieses Ansatzes besteht aus drei optischen Fasern, in die das Strahlungsfeld von zwei Dauerstrichlasern mit gleicher Intensität eingespeist wird. Die erste Faser ist eine konventionelle Monomodefaser, die zweite ist eine Erbium-dotierte Verstärkerfaser mit negativer Dispersion, die dritte ist eine hoch nichtlineare Faser mit niedriger Dispersion. Die Entwicklung eines OFKs in diesem System geschieht auf folgende Art und Weise: als die Laserwellen mit verschiedenen Frequenzen sich durch die erste Faser ausbreiten, erzeugen sie einen Anfangskamm durch einen Kaskadenprozess der Vier-Wellen-Mischung (VWM). Die neu entstandenen Frequenzkomponenten des Kamms sind frequenzkorreliert und haben einen spektralen Abstand, der der Laserfrequenzseparation (LFS) gleicht. Dies entspricht dem Entstehen von einem Zug von prä-komprimierten optischen Impulsen mit Impulsbreiten von einigen Pikosekunden. Diese Impulse werden strakt komprimiert in der nachfolgenden Erbium-dotierten Faser: es entstehen Sub-100-Femtosekunden-Impulse mit breiten OFK-Spektren. In der anschließenden hochnichtlinearen Faser wird das Kamm-Spektrum weiter verbreitet, während seine Frequenzlinien in ihren Intensitäten ausgeglichen werden. Dieser Ansatz wurde mathematisch mit Hilfe einer Verallgemeinerten Nichtlinearen Schrödinger Gleichung (VNSG) modelliert, die die Terme für den nichtlinearen optischen Kerr-Effekt, den Raman-Effekt, die Impuls-Selbstaufsteilung, die optischen Verluste und das wellenlängenabhängigen Erbium-Verstärkungsprofil für die zweite Faser enthält. Die Gleichung der Anfangsbedingung von der Form einer bichromatischen tief durchmodulierten Kosinus-Welle repräsentiert das Strahlungsfeld zweier Dauerstrichlaser. Die numerischen Studien sind mit Hilfe von Matlab-Skripten durchgeführt, die speziell für die numerische Integration der VNSG mit der bichromatischen Kosinus-Welle als Anfangsbedingung entworfen worden sind. Diese Skripte basieren auf dem numerischen Verfahren Fourth-Order Runge-Kutta in the Interaction Picture Method, das mit der Methode der Auswertung von lokalen numerischen Fehlern kombiniert wurde. Diese Arbeit enthält die Studien und Resultate der Optimierung der Längen der ersten und der zweiten Faser in Abhängigkeit von der Gruppengeschwindigkeitsdispersion der ersten Faser. Solche Optimierungsstudien sind notwendig, da genau an solche optimierten Längen weisen die Frequenzkämme die größte Bandbreite auf sowie das niedrigste Rauschniveau. Des Weiteren wurde der Aufbau von optischen Impulsen in der ersten und der zweiten Faser des Ansatzes mittels der numerischen Technik Soliton Radiation Beat Analysis analysiert. Es wurde gezeigt, dass für niedrige Eingangsleistungen ein kollektiver Solitonenkristall in der ersten Faser generiert wird, der sich mit steigender Eingangsleistung in freie optische Solitonen auflöst. Was die zweite Faser betrifft, so wurde gezeigt, dass der Aufbau und Ausbreitung von optischen Impulsen in dieser Faser kritisch von den Eigenschaften der Impulse abhängt, die in der ersten Faser aufgebaut wurden. So findet adiabatische Solitonenkompression in der zweiten Faser statt, falls die Eingangsleistung niedrig ist und die Form der Impulse in der ersten Faser relativ einfach. Für höhere Eingangsleistungen ist der Aufbau und somit die Dynamik der Impulse in der ersten Faser komplizierter. Solche Impulse zerfallen dann in der zweiten Faser, was zum Erhöhen des Intensitätsrauschens führt. Die Studien des Intensitätsrauschens der optischen Impulse, die im Rahmen dieser Arbeit durchgeführt wurden, erlauben die Aussagen über das Rauschverhalten der OFK. Diese Studien haben gezeigt, dass das Intensitätsrauschen des Gesamtsystems (d.h. aller drei Fasern) mit steigender LFS nachlässt. KW - optical frequency combs KW - spectrograph calibration KW - generalised nonlinear Schrödinger equation KW - four-wave mixing KW - optical solitons KW - optische Frequenzkämme KW - Kalibrierung von Spektrografen KW - verallgemeinerte nichlineare Schrödinger Gleichung KW - Vier-Wellen-Mischung KW - optische Solitonen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88776 ER - TY - THES A1 - Prokhorov, Boris E. T1 - High-latitude coupling processes between thermospheric circulation and solar wind driven magnetospheric currents and plasma convection T1 - Kopplungsprozesse zwischen der thermosphärischen Zirkulation in hohen Breiten und den vom Sonnenwind getriebenen magnetosphärischen Strömen und der Plasmakonvektion N2 - The high-latitudinal thermospheric processes driven by the solar wind and Interplanetary Magnetic Field (IMF) interaction with the Earth magnetosphere are highly variable parts of the complex dynamic plasma environment, which represent the coupled Magnetosphere – Ionosphere – Thermosphere (MIT) system. The solar wind and IMF interactions transfer energy to the MIT system via reconnection processes at the magnetopause. The Field Aligned Currents (FACs) constitute the energetic links between the magnetosphere and the Earth ionosphere. The MIT system depends on the highly variable solar wind conditions, in particular on changes of the strength and orientation of the IMF. In my thesis, I perform an investigation on the physical background of the complex MIT system using the global physical - numerical, three-dimensional, time-dependent and self-consistent Upper Atmosphere Model (UAM). This model describes the thermosphere, ionosphere, plasmasphere and inner magnetosphere as well as the electrodynamics of the coupled MIT system for the altitudinal range from 80 (60) km up to the 15 Earth radii. In the present study, I developed and investigated several variants of the high-latitudinal electrodynamic coupling by including the IMF dependence of FACs into the UAM model. For testing, the various variants were applied to simulations of the coupled MIT system for different seasons, geomagnetic activities, various solar wind and IMF conditions. Additionally, these variants of the theoretical model with the IMF dependence were compared with global empirical models. The modelling results for the most important thermospheric parameters like neutral wind and mass density were compared with satellite measurements. The variants of the UAM model with IMF dependence show a good agreement with the satellite observations. In comparison with the empirical models, the improved variants of the UAM model reproduce a more realistic meso-scale structures and dynamics of the coupled MIT system than the empirical models, in particular at high latitudes. The new configurations of the UAM model with IMF dependence contribute to the improvement of space weather prediction. N2 - Die thermosphärischen Prozesse in hohen Breiten, die durch die Wechselwirkung des Sonnenwinds und des Interplanetaren Magnetfeldes (IMF) mit der Erdmagnetosphäre getrieben werden, stellen sich als stark veränderliches Geschehen in der komplexen dynamischen Plasmaumgebung der Erde dar, die das gekoppelte System der Magnetosphäre, Ionosphäre und Thermosphäre (MIT) umfaßt. Die Einflüsse des Sonnenwindes und des IMF zeigen sich als Energieübertragung in das MIT System mittels Rekonnektionsprozessen an der Magnetopause. Feldliniengerichtete Ströme (FACs) repräsentieren die energetische Kopplung zwischen der Magnetosphäre und der Ionosphäre der Erde. Das MIT System wird bestimmt durch die stark veränderlichen Sonnenwindbedingungen, insbesondere von der Stärke und Richtung des IMF. In meiner Promotionsschrift untersuche ich die physikalischen Bedingungen des komplexen MIT System mit Hilfe eines globalen physikalisch-numerischen, dreidimensionalen, zeitabhängigen und selbstkonsistenten Modells, dem Upper Atmosphere Model (UAM). Das UAM beschreibt das Verhalten der Thermosphäre, Ionosphäre, Plasmasphäre und der inneren Magnetosphäre in einem Höhenbereich zwischen 80 (60) km und 15 Erdradien sowie die elektrodynamische Verkopplung des gesamten MIT Systems. In der vorliegenden Arbeit habe ich mehrere Varianten der elektrodynamischen Kopplung in hohen Breiten entwickelt und analysiert, die die FACs innerhalb des UAM in ihrer Abhängigkeit vom IMF darstellen. Für Testzwecke wurden diese Varianten auf eine Reihe von numerischen Simulationen des gekoppelten MIT Systems unter verschiedenen Bedingungen hinsichtlich Jahreszeit, geomagnetischer Aktivität, Sonnenwind- und IMF-Parametern angewandt. Darüberhinaus wurden diese Varianten des IMF-abhängigen theoretischen Modells entsprechenden globalen empirischen Modellen gegenübergestellt. Modellergebnisse wurden außerdem mit einigen wichtigen von Satelliten gemessenen Thermosphärenparametern, wie dem Neutralwind und der Massendichte verglichen. Die UAM Modelvarianten mit IMF-Abhängigkeit zeigen eine gute Übereinstimmung mit den Satellitenbeobachtungen. Im Vergleich mit empirischen Modellaussagen geben die UAM Modellvarianten ein genaueres Bild der mesoskaligen Strukturen und der Dynamik des gekoppelten MIT Systems wieder, insbesondere für die hohen Breiten. Die neuen UAM Konfigurationen mit IMF-Abhängigkeit tragen damit zu verbesserten Möglichkeiten in der Weltraumwettervorhersage bei. KW - upper atmosphere model KW - high-latitudinal thermosphere KW - magnetosphere-ionosphere-thermosphere coupling KW - solar wind and interplanetary magnetic field influence KW - field aligned currents KW - Upper Atmosphere Model (UAM) KW - Thermosphäre hoher Breiten KW - Kopplung zwischen Magnetosphäre, Ionosphäre und Thermosphäre KW - Einfluß des Sonnenwindes und des interplanetaren magnetischen Feldes KW - feldlinengerichtete Ströme Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-92353 ER - TY - THES A1 - Papendiek, Franka T1 - Fodder legumes for Green Biorefineries T1 - Futterleguminosen als Rohstoff der Grünen Bioraffinerie BT - a perspective for sustainable agricultural production systems BT - eine Perspektive für nachhaltige agrarische Produktionssysteme N2 - Peak oil is forcing our society to shift from fossil to renewable resources. However, such renewable resources are also scarce, and they too must be used in the most efficient and sustainable way possible. Biorefining is a concept that represents both resource efficiency and sustainability. This approach initiates a cascade use, which means food and feed production before material use, and an energy-related use at the end of the value-added chain. However, sustainability should already start in the fields, on the agricultural side, where the industrially-used biomass is produced. Therefore, the aim of my doctoral thesis is to analyse the sustainable feedstock supply for biorefineries. In contrast to most studies on biorefineries, I focus on the sustainable provision of feedstock and not on the bioengineering processing of whatever feedstock is available. Grasslands provide a high biomass potential. They are often inefficiently used, so a new utilisation concept based on the biorefining approach can increase the added value from grasslands. Fodder legumes from temporary and permanent grasslands were chosen for this study. Previous research shows that they are a promising feedstock for industrial uses, and their positive environmental impact is an important byproduct to promote sustainable agricultural production systems. Green Biorefineries are a class of biorefineries that use fresh green biomass, such as grasses or fodder legumes, as feedstock. After fractionation, an organic solution (press juice) forms; this is used for the production of organic acids, chemicals and extracts, as well as fertilisers. A fibre component (press cake) is also created to produce feed, biomaterials and biogas. This thesis examines a specific value chain, using alfalfa and clover/grass as feedstock and generating lactic acid and one type of cattle feed from it. The research question is if biomass production needs to be adapted for the utilisation of fodder legumes in the Green Biorefinery approach. I have attempted to give a holistic analysis of cultivation, processing and utilisation of two specific grassland crops. Field trials with alfalfa and clover/grass at different study sites were carried out to obtain information on biomass quality and quantity depending on the crop, study site and harvest time. The fresh biomass was fractionated with a screw press and the composition of press juices and cakes was analysed. Fermentation experiments took place to determine the usability of press juices for lactic acid production. The harvest time is not of high importance for the quality of press juices as a fermentation medium. For permanent grasslands, late cuts, often needed for reasons of nature conservation, are possible without a major influence on feedstock quality. The press cakes were silaged for feed-value determination. Following evidence that both intermediate products are suitable feedstocks in the Green Biorefinery approach, I developed a cost-benefit analysis, comparing different production scenarios on a farm. Two standard crop rotations for Brandenburg, producing either only market crops or market crops and fodder legumes for ruminant feed production, were compared to a system that uses the cultivated fodder legumes for the Green Biorefinery value chain instead of only feed production. Timely processing of the raw material is important to maintain quality for industrial uses, so on-site processing at the farm is assumed in Green Biorefinery scenario. As a result, more added value stays in the rural area. Two farm sizes, common for many European regions, were chosen to examine the influence of scale. The cost site of farmers has also been analysed in detail to assess which farm characteristics make production of press juices for biochemical industries viable. Results show that for large farm sizes in particular, the potential profits are high. Additionally, the wider spectrum of marketable products generates new sources of income for farmers. The holistic analysis of the supply chain provides evidence that the cultivation processes for fodder legumes do not need to be adapted for use in Green Biorefineries. In fact, the new utilisation approach even widens the cultivation and processing spectrum and can increase economic viability of fodder legume production in conventional farming. N2 - Nachwachsende Rohstoffe ersetzen zunehmend fossile Energieträger. Die effiziente Verwertung dieser Ressourcen ist essentiell, um eine nachhaltige Rohstoffnutzung zu gewährleisten. Die Bioraffinerie ist ein Konzept, das darauf abzielt Ressourcen möglichst effizient und nachhaltig zu nutzen. Biomasse wird hierbei mit möglichst hoher Wertschöpfung verarbeitet und es entstehen sowohl Lebens- und Futtermittel, als auch Chemikalien und Energieträger daraus. Doch auch die Rohstoffe, die im Bioraffinerieprozess verarbeitet werden, müssen nachhaltig produziert sein. Das Ziel dieser Doktorarbeit ist es, die nachhaltige Bereitstellung von Rohstoffen für die Bioraffinerie zu untersuchen. Als Rohstoff habe ich Futterleguminosen vom Grünland gewählt. Grünlandflächen sind in Deutschland und weiten Teilen Europas durch Umbruch oder aber Nutzungsaufgabe bedroht. Dies zeigt, dass sie nicht effizient genutzt werden. Neue Nutzungsansätze, die sich durch Bioaffinerien ergeben, könnten den Rückgang des Grünlands aufhalten. Sowohl Dauergrünland, als auch temporäres Grünland wird in dieser Arbeit untersucht. Futterleguminosen wurden gewählt, da frühere Studien sie als vielversprechenden Rohstoff für die industrielle Nutzung ausgewiesen haben und sie einen sehr positiven ökologischen Einfluss auf Agrarökosysteme haben können. Eine Form der Bioraffinerie ist die Grüne Bioraffinerie, die als Rohstoff frische grüne Biomasse, wie zum Beispiel Gräser verarbeitet. Die Biomasse wird in einen Faseranteil (Presskuchen) und eine organische Lösung (Presssaft) fraktioniert. Der Presskuchen kann zur Herstellung von Futtermitteln, Biomaterialien oder auch als Biogassubstrat verwendet werden. Der Presssaft ist vielfältig in der biochemischen Industrie einsetzbar, z.B. zur Produktion organischer Säuren, Kosmetika und Pharmazeutika. Diese Doktorarbeit untersucht eine spezifische Wertschöpfungskette der Grünen Bioraffinerie, bei der Luzerne und Kleegras als Rohstoffe verwendet werden und aus ihnen Milchsäure sowie ein Futtermittel für Wiederkäuer produziert wird. Die Forschungsfragen in diesem Zusammenhang sind, (1) ob der Anbau der Futterleguminosen der Nutzung als Rohstoff in der Bioraffinerie angepasst werden muss; (2) wie die Biomasse für eine effiziente Rohstoffausbeute verarbeitet werden muss; und (3) ob der Anbau von Futterleguminosen für die Grüne Bioraffinerie wirtschaftlich rentabel umsetzbar ist. Ich habe mit dieser Arbeit somit eine ganzheitliche Untersuchung umgesetzt, die den Anbau, die Verarbeitung und letztlich auch die Produktverwertung untersucht. Zur Beantwortung der Forschungsfragen wurden Feldversuche durchgeführt, um Informationen zu Biomassequalität und –quantität in Abhängigkeit der Kulturpflanze, des Untersuchungsstandortes sowie des Erntezeitpunktes zu erlangen. Die geerntete Biomasse wurde mit einer Schneckenpresse in Presssaft und –kuchen separiert und deren Inhaltsstoffe analysiert. In Fermentierungsexperimenten wurde die Güte der Presssäfte als Rohstoff in der Milchsäureherstellung untersucht. Die Herstellung von Milchsäure erfordert eine schnelle Verarbeitung der Biomasse, sodass diese direkt im landwirtschaftlichen Betrieb stattfinden sollte. Dies führt zu einer höheren Wertschöpfung direkt am Ort der Produktion und kann die Wirtschaft im ländlichen Raum stärken. Die Qualität des Presskuchens als Futtermittel wurde mithilfe von Silierversuchen bestimmt. Die Untersuchungen in dieser Doktorarbeit zeigten, dass der Erntezeitpunkt für die Rohstoffqualität in der industriellen Nutzung eine untergeordnete Rolle spielt. Somit werden späte Erntezeitpunkte möglich, die vor allem für extensiv genutztes Dauergrünland wichtig sind, um die Biodiversität zu erhalten. Nachdem der Nachweis erbracht war, dass sowohl der Presssaft als auch der Presskuchen wertvolle Zwischenprodukte der Grünen Bioraffinerie sind, habe ich eine Kosten-Nutzen Analyse aufgestellt. Ziel war es herauszufinden, ob Landwirte von der Bereitstellung dieser Zwischenprodukte wirtschaftlich profitieren können. Es stellte sich heraus, dass vor allem große landwirtschaftliche Betriebe einen wirtschaftlichen Nutzen daraus ziehen können. Der Anbau von Futterleguminosen könnte in diesen Betrieben eine stark positive Umweltwirkung haben, da z.B. der Einsatz von Mineraldüngern reduziert werden kann und Bodenstrukturen verbessert werden. Zusammenfassend eröffnet die Grüne Bioraffinerie neue Nutzungsansätze für Futterleguminosen und somit Grünlandstandorte und kann genutzt werden, um die Nachhaltigkeit in agrarischen Produktionssystemen zu steigern. KW - Green Biorefinery KW - cost-benefit-analysis KW - field trials KW - fermentation experiments KW - lactic acid production KW - fodder legumes KW - Luzerne KW - Kleegras KW - Versuchsanbau KW - Fermentation KW - Milchsäure KW - Futtermittel für Wiederkäuer KW - Presskuchen KW - Presssaft KW - Kosten-Nutzen-Analyse KW - Nachhaltigkeit im ländlichen Raum Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87198 ER - TY - THES A1 - Mai, Michael T1 - Migrationsdiskurse in der deutschen Grenzregion zu Polen T1 - Migration discourses in the German border region neighbouring with Poland BT - empirische Analysen in Frankfurt (Oder), Guben und Görlitz im Vorfeld der EU-Erweiterung zum 1. Mai 2004 BT - empirical analyses in Frankfurt (Oder), Guben and Görlitz preliminary to the EU enlargement on the 1st of May 2004 N2 - In der vorliegenden Dissertation werden Migrationsdiskurse in der deutschen Grenzregion zu Polen im Vorfeld der EU-Erweiterung zum 1. Mai 2004 exemplarisch in drei deutschen Grenzstädten, der jeweils westliche Teil der ehemals gemeinsamen, seit 1945 durch eine nationalstaatliche Grenze mit dem jeweils zeitspezifischen Grenzregime geteilten, deutsch-polnischen Zwillingsstädte Frankfurt (Oder) – Słubice, Guben – Gubin und Görlitz – Zgorzelec, analysiert. Ausgewählt wurde der Untersuchungsraum mit Blick auf die tiefgreifenden europäischen Transformationsprozesse seit den späten 1980er Jahren, die für die örtliche Bevölkerung gravierende lebensweltliche Strukturumbrüche zur Folge hatten. Die Region wurde mit der Vereinigung der beiden deutschen Staaten überdies zu einem zentralen Aktionsraum nationaler und internationaler Migrationspolitik; ihr wurde eine wichtige stellvertretende Funktion betreffend die Zutrittsregelung zugewiesen. Mit der EU-Erweiterung waren für die Region neuerliche, unmittelbare Veränderungen verbunden, die vor Ort gerade auch aufgrund damit (mutmaßlich) einhergehender Migration eher als Bedrohung denn als Chance gedeutet wurden. Den diskurstheoretischen Hintergrund der Untersuchungen stellen in erster Linie die Arbeiten von Michel Foucault und die von Siegfried Jäger darauf aufruhend konzipierte Kritische Diskursanalyse bereit. Diskurs wird – grob vereinfacht – als Fluss von sozialen Wissensbeständen und Bewusstseinsinhalten durch die Zeit verstanden, der individuelles und kollektives Handeln von Menschen bestimmt; Diskurse sind der Ort, an dem (Be-)Deutungen von Menschen ausgehandelt, verändert und der Wirklichkeit zugewiesen werden. Der Forschungszugang versteht sich als Teil der Neuen Kulturgeographie, die konsequent nicht-essentialistisch und erkenntnistheoretisch nicht-fundamentalistisch ist. Die Datenbasis der empirischen Analysen repräsentieren zwei Ebenen bzw. Teilsektoren des Diskurses. Zum einen die Berichterstattung der jeweils monopolartigen regionalen Tageszeitung in Frankfurt (Oder), Guben und Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/Lokalausgabe Guben, Sächsische Zeitung/Görlitzer Zeitung). Zum anderen ein Sample von insgesamt 17 Experteninterviews mit lokalen Funktionsträgern, die mit Blick auf ihr, an ihre spezifische professionelle und/oder ehrenamtliche Tätigkeit gebundenes, praxisgesättigtes Sonder- bzw. Insiderwissen zum Thema Migration ausgewählt und befragt wurden. Die durchgeführten Analysen verdeutlichen unter anderem die Bedeutung diskurssemantischer Grundfiguren des deutschen Migrationsdiskurses im Sinne politisch und alltagskulturell konservierter migrationskritischer Vorstellungsinhalte und Bedeutungszuweisungen zu Kategorien des Fremden und Konstruktionen von Wir und/vs. Sie. Ebenso explizieren sie eine gravierende Diskrepanz zwischen dem lokalen Staat und der Lebenswelt der lokalen Bevölkerung. N2 - The present doctoral thesis analyses migration discourses in the German border region neighbouring with Poland preliminary to the EU enlargement on the 1st of May, 2004. With three case studies, it looks at German border towns, more specifically at the western part of German-Polish twin cities that were formerly united, but divided after 1945 by national borders and the rule of contingent border regimes: Frankfurt (Oder) – Słubice, Guben – Gubin and Görlitz – Zgorzelec. The space of investigation was chosen due to the profound European transformation processes since the late 1980’s that led to severe structural changes in the social environment of the regional population. With the unification of the two German states, this region also became one of the principal labs for national and international migration policy; it functioned as a proxy for the regulation of entry. With the EU enlargement, this region faced new, direct changes that, on the local level, were rather seen as a threat than as an opportunity, not least because of the (expected) intensified migration. As for the theoretical background, this investigation draws mostly from the works of Michel Foucault and the Critical Discourse Analysis that Siegfried Jäger conceptualised based on Foucault’s writings. To put it simple, discourse is described as the flow of social knowledge and of the scope of perceptions in the course of time which determines individual and collective actions; discourses are the place where meanings and interpretations are negotiated, transformed and assigned to reality. This research approach is part of the New Cultural Geography which is consistently non-essentialist and epistemologically non-fundamentalist. The data of the empirical analyses represents two levels or sub-sectors of the discourse: On the one hand, the news coverage of the quasi-monopolised regional newspapers in Frankfurt (Oder), Guben and Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/local edition Guben, Sächsische Zeitung/Görlitzer Zeitung); on the other hand, a sample of 17 interviews with local experts who were selected and interviewed based on their specific profile as professionals and/or volunteers and their insider knowledge on the topic of migration that is informed by their practical experiences. The analyses demonstrate inter alia the importance of basic semantic figures in the German migration discourse: Assumptions and assigned meanings critical to migration that are preserved in political discourses as well as in the every-day culture and that are reflected in categories of the other or the construction of us in contrast to them. They also reveal the remarkable discrepancy between the local state and the social environment of the local population. KW - deutsche Grenzregion zu Polen KW - Migrationsdiskurs KW - geographische Grenzraumforschung KW - Kritische Diskursanalyse KW - Neue Kulturgeographie KW - German border region neighbouring with Poland KW - migration discourse KW - geographic border space research KW - Critical Discourse Analysis KW - New Cultural Geography Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87015 ER - TY - THES A1 - Cattania, Camilla T1 - Improvement of aftershock models based on Coulomb stress changes and rate-and-state dependent friction T1 - Verbesserte Nachbebenmodelle durch Berücksichtigung von Coulombspannungsänderungen und Rate-State abhängiger Reibung N2 - Earthquake clustering has proven the most useful tool to forecast changes in seismicity rates in the short and medium term (hours to months), and efforts are currently being made to extend the scope of such models to operational earthquake forecasting. The overarching goal of the research presented in this thesis is to improve physics-based earthquake forecasts, with a focus on aftershock sequences. Physical models of triggered seismicity are based on the redistribution of stresses in the crust, coupled with the rate-and-state constitutive law proposed by Dieterich to calculate changes in seismicity rate. This type of models are known as Coulomb- rate and-state (CRS) models. In spite of the success of the Coulomb hypothesis, CRS models typically performed poorly in comparison to statistical ones, and they have been underepresented in the operational forecasting context. In this thesis, I address some of these issues, and in particular these questions: (1) How can we realistically model the uncertainties and heterogeneity of the mainshock stress field? (2) What is the effect of time dependent stresses in the postseismic phase on seismicity? I focus on two case studies from different tectonic settings: the Mw 9.0 Tohoku megathrust and the Mw 6.0 Parkfield strike slip earthquake. I study aleatoric uncertainties using a Monte Carlo method. I find that the existence of multiple receiver faults is the most important source of intrinsic stress heterogeneity, and CRS models perform better when this variability is taken into account. Epistemic uncertainties inherited from the slip models also have a significant impact on the forecast, and I find that an ensemble model based on several slip distributions outperforms most individual models. I address the role of postseismic stresses due to aseismic slip on the mainshock fault (afterslip) and to the redistribution of stresses by previous aftershocks (secondary triggering). I find that modeling secondary triggering improves model performance. The effect of afterslip is less clear, and difficult to assess for near-fault aftershocks due to the large uncertainties of the afterslip models. Off-fault events, on the other hand, are less sensitive to the details of the slip distribution: I find that following the Tohoku earthquake, afterslip promotes seismicity in the Fukushima region. To evaluate the performance of the improved CRS models in a pseudo-operational context, I submitted them for independent testing to a collaborative experiment carried out by CSEP for the 2010-2012 Canterbury sequence. Preliminary results indicate that physical models generally perform well compared to statistical ones, suggesting that CRS models may have a role to play in the future of operational forecasting. To facilitate efforts in this direction, and to enable future studies of earthquake triggering by time dependent processes, I have made the code open source. In the final part of this thesis I summarize the capabilities of the program and outline technical aspects regarding performance and parallelization strategies. N2 - Die örtliche und zeitlich Häufung von Erdbeben ist geeignet, um Änderungen in Seismizitätsraten auf kurzen bis mittleren Zeitskalen (Stunden bis Monate) zu prognostizieren. Kürzlich wurden vermehrt Anstrengungen unternommen, den Umfang solcher Modelle auf Operationelle Erdbebenvorhersage auszudehnen, welche die Veröffentlichung von Erdbebenwahrscheinlichkeiten beinhaltet mit dem Ziel, die Bevölkerung besser auf mögliche Erdbeben vorzubereiten. Das vorrangige Ziel dieser Dissertation ist die Verbesserung von kurz- und mittelfristiger Erdbebenprognose basierend auf physikalischen Modellen. Ich konzentriere mich hier auf Nachbebensequenzen. Physikalische Modelle, die getriggerte Seimizität erklären, basieren auf der Umverteilung von Spannungen in der Erdkruste. Berechnung der Coulomb Spannung können kombiniert werden mit dem konstituivem Gesetz von Dieterich, welches die Berechnung von Änderungen in der Seismizitätsrate ermöglicht. Diese Modelle sind als Coulomb-Rate-and-State (CRS) Modelle bekannt. Trotz der erfolgreichen Überprüfung der Coulomb-Hypothese, schneiden CRS-Modelle im Vergleich mit statistischen Modellen schlecht ab, und wurden deshalb bisher kaum im Kontext operationeller Erdbenbenvorhersage genutzt. In dieser Arbeit, gehe ich auf einige der auftretenden Probleme ein. Im Besonderen wende ich mich den folgenden Fragen zu: (1) Wie können wir die Unsicherheiten und die Heterogenität des Spannungsfeldes infolge des Hauptbebens realistisch modellieren? (2)Welche Auswirkungen haben zeitlich variable Spannungsänderungen in der postseismischen Phase? Ich konzentriere mich hierbei auf zwei Beispiele in unterschiedlichen tektonischen Regionen: die Aufschiebung des Mw9.0 Tohoku Erdbeben und die Blattverschiebung des Mw6.0 Parkfield Erdbeben. Ich untersuche aleotorische Unsicherheiten der Coulomb-Spannung durch Variabilität in der Orientierung der betroffenen Bruchflächen und durch Spannungsgradienten innerhalb von Modellzellen. Ich zeige, dass die Existenz der unterschiedlichen Bruchflächen die bedeutenste Quelle für intrinsiche Spannungheterogenität ist und das CRS-Modelle deutlich besser abschneiden, wenn diese Variabilität berücksichtigt wird. Die epistemischen Unsicherheiten aufgrund von unterschiedlichen Ergebnissen von Inversionen von Daten für die Verschiebung entlang der Bruchfläche haben ebenso erhebliche Auswirkungen auf die Vorhersage. Ich gehe dann auf die Rolle von postseismischen Spannung ein, insbesondere auf zwei Prozesse: aseismische Verschiebung entlang der Störungsfläche des Hauptbebens (Afterslip) und die Veränderung von Spannungen durch vorhergehende Nachbeben (sekundäres Triggern). Ich demonstriere, dass das Modellieren von sekundärem Triggern die Modellvorhersage in beiden Fallbeispielen verbessert. Die Einbeziehung von Afterslip verbessert die Qualität der Vorhersage nur für die Nachbebensequenz des Parkfield Erdbebens. Dagegen kann ich nachweisen, dass Afterslip infolge des Tohoku Bebens eine höhere Seismizität auf Abschiebungsflächen im Hangenden begünstigt. Die dargestellten Verbesserungen des CRS-Modells sind sehr vielversprechend im Kontext operationeller Erdbebenvorhersage, verlangen aber nach weiterer Überprüfung. Ich stelle die vorläufigen Ergebnisse eines gemeinschaftlichen Tests für die Erdbebenfolge von Canterbury 2010-2012 vor, welcher von CSEP durchgeführt wurde. Die physikalischen Modelle schneiden hier im Vergleich mit statistischen Modellen gut ab. Daher scheint eine Anwendung von CSR-Modellen, die Unsicherheiten und sekundäres Triggering berücksichtigen, in zukünftigen operationellen Erdbebenvorhersagen empfehlenswert. Um die Bemühungen in dieser Richtung zu unterstützen und weitere Studien zum Triggern von Erdbeben durch zeitabhängige Prozesse zu ermöglichen, habe ich meinen Open Source Code öffentlich zugänglich gemacht. Im letzen Teil dieser Arbeit fasse ich die Leistungsfähigkeit des Programms zusammen und skizziere die technischen Aspekte bezüglich der Effiziens und der Parallelisierung des Programmes. KW - earthquake forecasting KW - earthquake interaction KW - Coulomb stress KW - rate-state friction KW - Erdbebenvorhersage KW - Coulombspannung KW - Erdbebenwechselwirkung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87097 ER - TY - THES A1 - Hildebrandt, Dominik T1 - The HI Lyman-alpha opacity at redshift 2.7 < z < 3.6 T1 - Die HI-Lyman-α-Opazität im Rotverschiebungsbereich 2.7 < z < 3.6 N2 - Most of the baryonic matter in the Universe resides in a diffuse gaseous phase in-between galaxies consisting mostly of hydrogen and helium. This intergalactic medium (IGM) is distributed in large-scale filaments as part of the overall cosmic web. The luminous extragalactic objects that we can observe today, such as galaxies and quasars, are surrounded by the IGM in the most dense regions within the cosmic web. The radiation of these objects contributes to the so-called ultraviolet background (UVB) which keeps the IGM highly ionized ever since the epoch of reionization. Measuring the amount of absorption due to intergalactic neutral hydrogen (HI) against extragalactic background sources is a very useful tool to constrain the energy input of ionizing sources into the IGM. Observations suggest that the HI Lyman-alpha effective optical depth, τ_eff, decreases with decreasing redshift, which is primarily due to the expansion of the Universe. However, some studies find a smaller value of the effective optical depth than expected at the specific redshift z~3.2, possibly related to the complete reionization of helium in the IGM and a hardening of the UVB. The detection and possible cause of a decrease in τ_eff at z~3.2 is controversially debated in the literature and the observed features need further explanation. To better understand the properties of the mean absorption at high redshift and to provide an answer for whether the detection of a τ_eff feature is real we study 13 high-resolution, high signal-to-noise ratio quasar spectra observed with the Ultraviolet and Visual Echelle Spectrograph (UVES) at the Very Large Telescope (VLT). The redshift evolution of the effective optical depth, τ_eff(z), is measured in the redshift range 2.7≤z≤3.6. The influence of metal absorption features is removed by performing a comprehensive absorption-line-fitting procedure. In the first part of the thesis, a line-parameter analysis of the column density, N, and Doppler parameter, b, of ≈7500 individually fitted absorption lines is performed. The results are in good agreement with findings from previous surveys. The second (main) part of this thesis deals with the analysis of the redshift evolution of the effective optical depth. The τ_eff measurements vary around the empirical power law τ_eff(z)~(1+z)^(γ+1) with γ=2.09±0.52. The same analysis as for the observed spectra is performed on synthetic absorption spectra. From a comparison between observed and synthetic spectral data it can be inferred that the uncertainties of the τ_eff values are likely underestimated and that the scatter is probably caused by high-column-density absorbers with column densities in the range 15≤logN≤17. In the real Universe, such absorbers are rarely observed, however. Hence, the difference in τ_eff from different observational data sets and absorption studies is most likely caused by cosmic variance. If, alternatively, the disagreement between such data is a result of an too optimistic estimate of the (systematic) errors, it is also possible that all τ_eff measurements agree with a smooth evolution within the investigated redshift range. To explore in detail the different analysis techniques of previous studies an extensive literature comparison to the results of this work is presented in this thesis. Although a final explanation for the occurrence of the τ_eff deviation in different studies at z~3.2 cannot be given here, our study, which represents the most detailed line-fitting analysis of its kind performed at the investigated redshifts so far, represents another important benchmark for the characterization of the HI Ly-alpha effective optical depth at high redshift and its indicated unusual behavior at z~3.2. N2 - Der Großteil der baryonischen Materie des Universums, die im Wesentlichen aus Wasserstoff und Helium besteht, befindet sich in Form von diffusem Gas zwischen den Galaxien. Dieses intergalaktische Medium (IGM) bildet großräumige Strukturen aus, dessen Filamente als "kosmisches Netz" bezeichnet werden. Die leuchtkräftigen extragalaktischen Objekte, die man heutzutage beobachten kann (z.B. Galaxien und Quasare), sind von diesem IGM umgeben und befinden sich in den dichtesten Regionen innerhalb des kosmischen Netzes. Die von diesen Objekten ausgehende ultraviolette (UV) Strahlung ist Bestandteil des UV-Strahlungshintergrunds, der seit der Reionisationsphase den hochionisierten Zustand des IGM aufrecht hält. Eine Auswertung des absorbierten Strahlungsanteils durch den noch im IGM vorhandenen neutralen Wasserstoff (HI) entlang der Sichtlinie zu einer beobachteten extragalaktischen Hintergrundquelle lässt auf den Energieeintrag der Strahlungsquellen ins IGM schließen. Aus geeigneten Messdaten lässt sich schlussfolgern, dass sich die effektive optische Tiefe von HI (Ly-alpha Übergang) mit abnehmender Rotverschiebung verringert, was im Wesentlichen auf die Expansion des Universums zurückzuführen ist. Einige Arbeiten finden jedoch bei der ausgewiesenen Rotverschiebung z~3.2 einen kleineren Wert für die effektive optische Tiefe als erwartet, ein Trend der möglicherweise mit der vollständigen Reionisation von Helium im IGM und einem Anstieg der Intensität des UV-Hintergrunds in Verbindung steht. Die Detektion und mögliche Ursache einer Abnahme der effektiven optischen Tiefe bei z~3.2 ist in der Literatur kontrovers diskutiert und die beobachteten Besonderheiten machen eine weitere Untersuchung erforderlich. Um die Eigenschaften der mittleren Absorption bei hoher Rotverschiebung besser zu verstehen und um einen Lösungsansatz für die Debatte zu liefern, untersuchen wir 13 hoch aufgelöste Quasarabsorptionsspektren mit einem hohen Signal-zu-Rauschen Verhältnis, die mit dem Instrument UVES des Very Large Telescope (VLT) aufgenommen wurden. Die Entwicklung der effektiven optischen Tiefe wird im Rotverschiebungsbereich 2.7≤z≤3.6 gemessen. Die Messung wird um den Beitrag von Metallen durch die detaillierte Anpassung von Linienprofilen an die beobachtete Absorption korrigiert. Im ersten Teil der Arbeit wird eine Auswertung der Parameter der ≈7500 einzeln angepassten Absorptionslinien (Säulendichte N und Doppler-Parameter b) vorgenommen. Die entsprechenden Ergebnisse stimmen im Rahmen der Messunsicherheiten mit Literaturwerten überein. Der Hauptteil der Arbeit beschäftigt sich mit der Berechnung der effektiven optischen Tiefe in Abhängigkeit von der Rotverschiebung τ_eff(z). Es stellt sich heraus, dass die τ_eff-Messwerte um ein empirisches Potengesetz der Form τ_eff(z)~(1+z)^(γ+1) mit γ=2.09±0.52 streuen. Die gleiche Auswertung wie für die Beobachtungsdaten wird für synthetische Spektren durchgeführt. Ein Vergleich dieser Daten legt nahe, dass die Größe der Unsicherheiten der τ_eff-Messwerte wahrscheinlich unterschätzt wird und dass die Streuung der Datenpunkte auf Absorber hoher Säulendichte (15≤logN≤17) zurückzuführen ist. Solche Absorber sind im beobachtbaren Universum jedoch selten, sodass der Unterschied in den τ_eff-Messwerten bei verschiedenen Zusammenstellungen von Beobachtungsdaten und Studien zum Absorptionsverhalten höchstwahrscheinlich durch kosmische Varianz bedingt ist. Sollte jedoch die fehlende Übereinstimmung dieser Daten eine Folge zu optimistischer (systematischer) Fehlerabschätzungen sein, so ist es ebenfalls denkbar, dass die τ_eff-Messwerte mit einer gleichmäßigen Entwicklung über den untersuchten Rotverschiebungsbereich hinweg konsistent sind. Um die wesentlichen Unterschiede in den Untersuchungsmethoden vorheriger Studien zu untersuchen, wird in dieser Arbeit ein umfassender Vergleich der Ergebnisse dieser Arbeit mit entsprechender Literatur vorgenommen. Eine endgültige Erklärung für das Auftreten einer Abweichung in τ_eff(z) vom empirischen Potenzgesetz, wie sie von einigen Studien bei z~3.2 gefunden wurde, kann in dieser Arbeit zwar nicht gegeben werden, dennoch stellt sie die bislang umfassendste Parameterbestimmung von Absorptionslinien ihrer Art im untersuchten Rotverschiebungsbereich dar. Sie ist somit ein weiterer wichtiger Schritt in Richtung des ganzheitlichen Verständnisses der effektiven optischen Tiefe bei hohen Rotverschiebungen und deren möglicherweise ungewöhnlichem Verlauf bei z~3.2. KW - intergalactic medium KW - cosmology: observations KW - methods: data analysis KW - methods: statistical KW - quasars: absorption lines KW - intergalaktisches Medium KW - Kosmologie: Beobachtungen KW - Methoden: Datenauswertung KW - Methoden: statistisch KW - Quasare: Absorptionslinien Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78355 ER - TY - THES A1 - Wettstein, Christoph T1 - Cytochrome c-DNA and cytochrome c-enzyme interactions for the construction of analytical signal chains N2 - Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins. In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA. Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible. Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications. N2 - In den Energiegewinnungsprozessen der Zellen spielen biochemische Reaktion, die auf Elektronentransfer (ET) basieren, eine wichtige Rolle. So sind die Proteinkomplexe der Atmungskette, welche an der inneren Membran der Mitochondrien abläuft, über eine ET-Kette miteinander verbunden. In biotechnologischen Anwendungen wird dieses Phänomen genutzt um Proteine auf der Oberfläche von Elektroden als funktionierende ET-Ketten zu arrangieren. Dabei kann der ET innerhalb dieser Kaskaden als elektrischer Strom gemessen und als Signal betrachtet werden. Dies ermöglicht die Anwendung von proteinmodifizierten Elektroden als Biosensoren und Biobrennstoffzellen. Ein geeigneter Baustein für den Aufbau vielschichtiger ET-Systeme ist das kleine, eisenhaltige Protein Cytochrom c (Cyt c), welches in der Lage ist Elektronen aufzunehmen, zu transportieren und wieder abzugeben. Als zweiter Baustein dient das lange, fadenartige Biomolekül DNA. DNA und Cyt c interagieren unter bestimmten Bedingungen aufgrund ihrer entgegengesetzten Oberflächenladungen. Dies ermöglicht den schichtweisen Aufbau stabiler Cyt c/DNA-Multischichten (MS) auf Elektrodenoberflächen, welche durch die sogenannte Layer-by-Layer (LbL) Technik aufgebaut werden. In diesen MS Systemen behält Cyt c trotz der Immobilisierung seine Beweglichkeit um die eigene Achse, wodurch der Selbstaustausch von Elektronen zwischen den Cyt c Molekülen sowie der ET zur Elektrode gewährleistet wird. Der molekulare Aufbau der Cyt c/DNA MS sowie die Interaktion zwischen den zwei biologischen Bausteine ist weitgehend unerforscht, daher wurden in der vorliegenden Studie die genauen Bedingungen der Cyt c/DNA Interaktion in Lösung untersucht. Außerdem wird die Eignung des MS Systems zur Einbettung von Enzymen getestet. Die Bausteine des MS-Systems, Cyt c und DNA bilden in Lösung stabile Komplexe unter den Assemblierungsbedingungen der MS (d.h. pH 5.0 und geringe Salzkonzentration). Im Vergleich dazu tritt bei pH 7.0 eine schwächere Interaktion auf, die für eine Komplexbildung nicht ausreicht. Dies ermöglicht die Untersuchung der Interaktion mittels Kernspinresonanzspektroskopie (NMR, engl. nuclear magnetic resonance spectroscopy), wobei die Interaktionsstellen des DNA-Moleküls auf Cyt c bestimmt werden. Im Vergleich zu pH 7.0 wird im leicht sauren pH-Bereich (6.0) eine erhöhte Anzahl an Interaktionspunkten gefunden, was Rückschlüsse auf eine erhöhte Interaktion zulässt. Dies resultiert schließlich in der starken Bindung bei pH 5.0, die den Aufbau stabiler Cyt c/DNA-MS auf Elektrodenoberflächen ermöglicht. Darüber hinaus spielen der Salzgehalt der Lösung sowie das Konzentrationsverhältnis von Cyt c und DNA eine wichtige Rolle. Auf der Grundlage des Cyt c/DNA-MS Aufbaus sollte durch die Kopplung eines Enzymes eine Signalkette mit sensorischen Eigenschaften geschaffen werden. Das Enzym dient dabei als Erkennungselement für bestimmte Moleküle in Lösung. Durch die Reaktion des Enzyms mit dem Molekül wird ein bioelektrisches Signal generiert, das durch elektrochemische Methoden gemessen wird. Dies wurde mit zwei verschiedenen Enzymen, der Glukose Dehydrogenase (GDH) und der Fruktose Dehydrogenase (FDH), untersucht. Beide Enzyme waren in der Lage mit einer Cyt c Monoschicht zu kommunizieren und konnten mit dem redox Protein auf der Elektrodenoberfläche immobilisiert werden. GDH konnte erfolgreich mit dem Cyt c/DNA-MS System gekoppelt und die Sensoreigenschaften der so aufgebauten Elektronentransferkette charakterisiert werden. Zusammenfassend charakterisiert diese Arbeit die Bedingungen der Cyt c/DNA-Komplexbildung und gibt einen Einblick in die bisher unbekannte Interaktion zwischen Cyt c und DNA auf der molekularen Ebene. Darüber hinaus wird die Nutzbarkeit des Cyt c/DNA MS Systems zur Einbettung von Enzymen am Beispiel der GDH gezeigt und schafft somit die Grundlage für das bessere Verständnis von ET Reaktionen zwischen Proteinen auf Elektrodenoberflächen. T2 - Cytochrom c-DNA und Cytochrom c-Enzym Interaktion für den Aufbau analytischer Signalketten KW - biosensor KW - protein KW - DNA KW - enzyme KW - interaction KW - DNA KW - Biosensor KW - Enzym KW - Interaktion KW - Protein Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78367 ER - TY - THES A1 - Rajasundaram, Dhivyaa T1 - Integrative analysis of heterogeneous plant cell wall related data T1 - Integrative Analyse von heterogenen Pflanzenzellwand-Daten N2 - Plant cell walls are complex structures that underpin plant growth and are widely exploited in diverse human activities thus placing them with a central importance in biology. Cell walls have been a prominent area of research for a long time, but the chemical complexity and diversity of cell walls not just between species, but also within plants, between cell-types, and between cell wall micro-domains pose several challenges. Progress accelerated several-fold in cell wall biology owing to advances in sequencing technology, aided soon thereafter by advances in omics and imaging technologies. This development provides additional perspectives of cell walls across a rapidly growing number of species, highlighting a myriad of architectures, compositions, and functions. Furthermore, rather than the component centric view, integrative analysis of the different cell wall components across system-levels help to gain a more in-depth understanding of the structure and biosynthesis of the cell envelope and its interactions with the environment. To this end, in this work three case studies are detailed, all pertaining to the integrative analysis of heterogeneous cell wall related data arising from different system-levels and analytical techniques. A detailed account of multiblock methods is provided and in particular canonical correlation and regression methods of data integration are discussed. In the first integrative analysis, by employing canonical correlation analysis - a multivariate statistical technique to study the association between two datasets - novel insight to the relationship between glycans and phenotypic traits is gained. In addition, sparse partial least squares regression approach that adapts Lasso penalization and allows for the selection of a subset of variables was employed. The second case study focuses on an integrative analysis of images obtained from different spectroscopic techniques. By employing yet another multiblock approach - multiple co-inertia analysis, insitu biochemical composition of cell walls from different cell-types is studied thereby highlighting the common and complementary parts of the two hyperspectral imaging techniques. Finally, the third integrative analysis facilitates gene expression analysis of the Arabidopsis root transcriptome and translatome for the identification of cell wall related genes and compare expression patterns of cell wall synthesis genes. The computational analysis considered correlation and variation of expression across cell-types at both system-levels, and also provides insight into the degree of co-regulatory relationships that are preserved between the two processes. The integrative analysis of glycan data and phenotypic traits in cotton fibers using canonical methods led to the identification of specific polysaccharides which may play a major role during fiber development for the final fiber characteristics. Furthermore, this analysis provides a base for future studies on glycan arrays in case of developing cotton fibers. The integrative analysis of images from infrared and Raman spectroscopic approaches allowed the coupling of different analytical techniques to characterize complex biological material, thereby, representing various facets of their chemical properties. Moreover, the results from the co-inertia analysis demonstrated that the study was well adapted as it is relevant for coupling data tables in a symmetric way. Several indicators are proposed to investigate how the global and block scores are related. In addition, studying the root cells of \textit{Arabidopsis thaliana} allowed positing a novel pipeline to systematically investigate and integrate the different levels of information available at the global and single-cell level. The conducted analysis also confirms that previously identified key transcriptional activators of secondary cell wall development display highly conserved patterns of transcription and translation across the investigated cell-types. Moreover, the biological processes that display conserved and divergent patterns based on the cell-type-specific expression and translation levels are identified. N2 - Pflanzliche Zellwände sind komplexe Strukturen, die wichtig für das Zellwachstum und auch nützlich für den Menschen sind, weshalb sie eine wichtige zentrale Rolle in der Biologie haben. Zellwände sind schon seit einiger Zeit ein bedeutsames Untersuchungsgebiet, jedoch stellen Fragen nach der chemischen Komplexizität und Diversität nicht nur zwischen Zellwänden verschiedener Spezies, sondern auch innerhalb von Pflanzen, zwischen verschiedenen Zelltypen und auch zwischen dem Mikro-Bereich von Zellwänden eine Herausforderung dar. Ein grosser Fortschritt in der Forschung konnte durch die Weiterentwicklung der Sequenziertechniken erzielt werden, sowie auch durch Fortschritte der "Omik"-Technologien und Imaging-Technologien. Dieser Fortschritt ermöglicht eine zusätzliche Perspektive auf Zellwände über die stark wachsende Anzahl verschiedener Spezies, die eine Vielzahl von Architekturen, Zusammensetzung und Funktionen hervorhebt. Des Weiteren werden statt einer Komponenten-zentrierten Sichtweise eine integrative Analyse der verschiedenen Zellwandkomponenten über unterschiedliche Systemebenen genutzt, um ein tieferes Verständnis über die Struktur und Biosynthese der Zellhülle und ihrer Wechselwirkung mit der Umgebung zu erlangen. Zu diesem Zweck werden in dieser Arbeit drei Fallstudien ausführlich beschrieben, die sich alle auf die integrative Analyse von heterogenen zellwandbezogenen Daten beziehen, die von unterschiedlichen Systemebenen und analystischen Techniken stammen. Eine detailierte Darstellung von Multiblock-Methoden wird verschafft, wobei besonders kanonische Korrelationsanalyse und Regressionsmethoden der Datenintegration diskutiert werden. In der ersten Studie werden unter Einsatz kanonischer Korrelationsanalyse - einer multivariaten statistischen Technik, um Zusammenhänge zwischen zwei Datensätzen zu ermitteln - angewendet, um neue Erkenntnisse in Bezug auf die Beziehungen zwischen Glycanen und phenotypischen Merkmalen zu erhalten. In der zweiten integrativen Analyse wird ein Sparse Partial Least Square Regressionsansatz verwendet, der Lasso Penalization anwendet und die Auswahl von einem Sub-Set von Variablen erlaubt. Ausserdem fokussiert sich die zweite Studie auch auf integrative Analyse von Bildern, die von zwei verschiedenen spektroskopischen Techniken aufgenommen wurden. Zunächst werden die zwei Sets von Bildern vor-bearbeitet und so aufbereitet, dass sie eine Blockdaten-Struktur bilden. Durch Anwendung eines weiteren Multiblock-Verfahrens, der multiple Co-Inertia Analyse, wird die in-situ biochemische Zusammensetzung der Zellwände von verschiedenen Zelltypen untersucht und die Gemeinsamkeiten und Unterschiede der zwei hyperspektralen Imaging-Techniken hervorgehoben. Zuletzt ermöglicht die dritte Studie eine integrative Genexpressions-Analyse des Arabidopsis Wurzeltranskriptoms und -translatoms zur Identifikation von zellwandbezogenen Genen und dem Vergleich von Expressionsmustern von Zellwandsynthese-Genen. Die numerische Analyse zieht sowohl Korrelation als auch Variation der Genexpression verschiedener Zelltypen auf den beiden Systemebenen in Betracht und liefert so einen Einblick in den Grad der ko-regulierten Beziehungen, die zwischen den beiden Prozessen konserviert sind. Die integrative Analyse der Glycandaten und den phenotypischen Merkmalen in Baumwollfasern unter Benutzung der kanonischen Methoden führte zur Identifikation von spezifischen Polysacchariden, welche eine wesentliche Rolle für die Entwicklung der finalen Fasereigenschaften spielen könnten. Weiterhin stellt diese Analyse eine Basis für zukünftige Studien über Glycanarrays von sich in der Entwicklung befindlichen Baumwollfasern dar. Die integrative Analyse von Bildern von Infrarot- und Raman-spektroskopischen Methoden erlaubt die Verknüpfung von verschiedenen analytischen Techniken, um komplexes biologisches Material zu charakterisieren, und somit eine Vielzahl ihrer chemischen Eigenschaften darzustellen. Dar über hinaus zeigen die Ergebnisse der Co-Inertia Analyse, dass die Studie gut adaptiert ist, was relevant für die symmetrische Verknüpfung von Datentabellen ist, aber auch weil mehrere Indikatoren vorgestellt wurden, um zu untersuchen, in wie fern die globalen und Block-Scores in Beziehung stehen. Ausserdem konnte durch die Untersuchung der Wurzelzellen von Arabidopsis thaliana eine neue Pipeline zur systematischen Untersuchung und Integration verschiedener Informationsebenen auf globaler und Einzelzellebene zuzüglich Identifikation von zellwandbezogenen Genen postuliert werden. Die ausgeführte Analyse bestätig auch, dass vorherige identifizierte Schlüssel-Transkriptionsfaktoren der sekundären Zellwandentwicklung hoch-konservierte Transkripions- und Translationsmuster in den untersuchten Zelltypen zeigen. Dazu kommt, dass biologischen Prozesse mit konservierten und divergenten Mustern auf zelltypspezifischer Expressions- und Translationebene identifiziert werden konnten. KW - pflanzliche Zellwände KW - "Omik"-Technologien KW - multivariate statistische Technik KW - integrative omics analysis KW - plant cell walls KW - canonical correlation analysis KW - regression methods Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77652 ER - TY - THES A1 - Schubert, Tobias T1 - Der Kampf um das digitalisierte Breitbandkabel T1 - The battle for the digital braodband cable BT - die Rundfunkprivilegierung bei der Kabeleinspeisung als Produkt einer überkommenen Medienordnung? N2 - Der klassische Fernsehrundfunk genießt verfassungsrechtlich und einfachgesetzliche eine privilegierte Sonderstellung. Diese setzt sich bei der Kabelbelegung fort, wo er - insbesondere der öffentliche Rundfunk - gegenüber teemedialen Anrufangeboten bevorrechtigt wird. Hintergrund dieser Sonderstellung ist nicht zuletzt die auf den Rundfunk zentrierte Medienordnung. Die Arbeit untersucht, ob diese Medienordnung und damit die Sonderstellung des Rundfunks noch zeitgemäß ist und schlägt Anpassungen vor. N2 - Classic broadcasting television enjoys a privileged role, constitutionally and by means of statutory law. It also enjoys a privileged role with regard to cable transmission, where certain programs - specifically those of public broadcasting stations - enjoy a so-called "must-carry-status". This privilege is tied to the statutory broadcasting system, which is focussed on classic television. The paper examines whether this system and the privileged role of classic television is still adequate and proposes changes. KW - Medienrecht KW - Rundfunk KW - Kabelbelegung KW - Rundfunkordnung KW - Telemedien KW - media law KW - broadcasting KW - cable transmission KW - access KW - broadcasting law Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77662 ER -