Refine
Year of publication
- 2015 (288) (remove)
Document Type
- Doctoral Thesis (288) (remove)
Is part of the Bibliography
- yes (288)
Keywords
- Klimawandel (3)
- climate change (3)
- Arbeitsgedächtnis (2)
- Aspekt (2)
- Bakteriophagen (2)
- Erosion (2)
- Germany (2)
- Geschäftsprozessmanagement (2)
- Modellierung (2)
- Nanopartikel (2)
Institute
- Institut für Biochemie und Biologie (48)
- Institut für Geowissenschaften (33)
- Institut für Physik und Astronomie (28)
- Institut für Ernährungswissenschaft (19)
- Institut für Chemie (17)
- Wirtschaftswissenschaften (17)
- Sozialwissenschaften (15)
- Bürgerliches Recht (13)
- Department Linguistik (9)
- Öffentliches Recht (9)
- Department Erziehungswissenschaft (7)
- Institut für Mathematik (7)
- Institut für Umweltwissenschaften und Geographie (7)
- Department Psychologie (6)
- Historisches Institut (6)
- Institut für Germanistik (6)
- Institut für Informatik und Computational Science (6)
- Institut für Romanistik (6)
- Institut für Künste und Medien (5)
- Institut für Anglistik und Amerikanistik (4)
- Department Sport- und Gesundheitswissenschaften (3)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (3)
- Strafrecht (3)
- Strukturbereich Kognitionswissenschaften (3)
- Extern (2)
- Department Grundschulpädagogik (1)
- Department Musik und Kunst (1)
- Institut für Philosophie (1)
- Institut für Religionswissenschaft (1)
- Juristische Fakultät (1)
- Klassische Philologie (1)
- Strukturbereich Bildungswissenschaften (1)
Die Arbeit befasst sich zunächst mit der Analyse und Einordnung des Begriffs der Daseinsvorsorge und deren Erbringung durch den Staat. Schwerpunkt der Betrachtung bildet dabei die Energieversorgung als klassische Aufgabe staatlicher Daseinsvorsorge.
Weiterhin wird der durch die Liberalisierung der Energieversorgung im Jahr 1998 eingeleitete Wandel von sog. natürlichen Monopolen, hin zu einem wettbewerblichen System betrachtet. Dabei wird aufgezeigt, dass sich durch die Einführung des Wettbewerbs weder die damit erhofften Kostenreduzierungen, noch das von Kritikern befürchtete Sterben der kommunalen Energieversorger bewahrheitet haben. Statt einer freien Preisbildung im Wettbewerb ist es zu einer faktischen Verlagerung der früher staatlich festgesetzten Energiepreisgenehmigung auf die Gerichte gekommen, die hierfür jedoch nicht ausgelegt sind. Kommunale Stadtwerke haben sich in der wettbewerblichen Energieversorgung dagegen so gut behauptet, dass seit einiger Zeit ein Trend zur Rekommunalisierung von Energieversorgung auf kommunaler Ebene zu verzeichnen ist.
Diesem offensichtlichen Wunsch nach einer gesteigerten Einflussnahme der Gemeinden auf die örtliche Energieversorgung läuft der aktuelle Rechtsrahmen der energierechtlichen Konzessionsvergabe in Gestalt des § 46 EnWG und seiner Auslegung durch die Rechtsprechung der Zivilgerichte zuwider. Die Arbeit zeigt auf, dass von Beginn der Liberalisierung der kommunale Einfluss auf die örtliche Konzessionsvergabe schrittweise und stetig beschnitten wurde, so dass gegenwärtig ein Zustand der Aushöhlung erreicht ist, der als unzulässiger Eingriff in den geschützten Kernbereich der kommunalen Selbstverwaltungsgarantie i.S.d. Art. 28 II GG anzusehen ist.
Patentpools
(2015)
Elisabeth Eppinger erforscht in diesem Buch aktuelle Patentpools, ihre Eigenschaften und alternative Lösungen zur gemeinsamen Nutzung von Patenten. Patentpools haben das Potenzial, Patentblockaden zu lösen und Innovationen zu fördern. Die Autorin diskutiert die Rolle von Patentkooperationen im Rahmen des strategischen Technologie- und Innovationsmanagements sowie der Innovationsförderung. Es wird gezeigt, welche strukturellen Faktoren, Motive und Charakteristika von Akteuren unterschiedliche Patentpools begünstigen
Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments.
Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method.
This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS.
The high-latitudinal thermospheric processes driven by the solar wind and Interplanetary Magnetic Field (IMF) interaction with the Earth magnetosphere are highly variable parts of the complex dynamic plasma environment, which represent the coupled Magnetosphere – Ionosphere – Thermosphere (MIT) system. The solar wind and IMF interactions transfer energy to the MIT system via reconnection processes at the magnetopause. The Field Aligned Currents (FACs) constitute the energetic links between the magnetosphere and the Earth ionosphere. The MIT system depends on the highly variable solar wind conditions, in particular on changes of the strength and orientation of the IMF.
In my thesis, I perform an investigation on the physical background of the complex MIT system using the global physical - numerical, three-dimensional, time-dependent and self-consistent Upper Atmosphere Model (UAM). This model describes the thermosphere, ionosphere, plasmasphere and inner magnetosphere as well as the electrodynamics of the coupled MIT system for the altitudinal range from 80 (60) km up to the 15 Earth radii.
In the present study, I developed and investigated several variants of the high-latitudinal electrodynamic coupling by including the IMF dependence of FACs into the UAM model. For testing, the various variants were applied to simulations of the coupled MIT system for different seasons, geomagnetic activities, various solar wind and IMF conditions. Additionally, these variants of the theoretical model with the IMF dependence were compared with global empirical models. The modelling results for the most important thermospheric parameters like neutral wind and mass density were compared with satellite measurements. The variants of the UAM model with IMF dependence show a good agreement with the satellite observations. In comparison with the empirical models, the improved variants of the UAM model reproduce a more realistic meso-scale structures and dynamics of the coupled MIT system than the empirical models, in particular at high latitudes. The new configurations of the UAM model with IMF dependence contribute to the improvement of space weather prediction.
Frankreich 1958: Der Algerienkrieg eskaliert, die links-liberale Regierung implodiert und reicht die Macht an General Charles de Gaulle weiter. Der hebt im Oktober die V. Republik aus der Taufe - und die französische Linke gesteht damit ihre Ohnmacht ein. Die Sozialisten haben den Machtantritt des konservativen Generals nicht verhindert, sondern diesen sogar mit angezettelt. Auch die Kommunisten sind isoliert und kämpfen mit dem stalinistischen Erbe. Einige Genossen erkennen ihre sozialistische Bewegung nicht wieder und beschließen, eine neue linke Bewegung aufbauen. Sie wollen de Gaulle und den Krieg offen bekämpfen, "veraltete" linke Ideologien über Bord werfen und ein "Labor" für neues linkes Denken schaffen. Parteimitglieder der Altkommunisten, Sozialisten und Trotzkisten, aber auch Künstler, Philosophen und Schriftsteller wurden Teil dieser heterogenen Bewegung, die heute als Neue Linke bezeichnet wird. Der interessierte Leser begreift nun die Ideengeschichte dieser Neuen französischen Linken, die nicht nur einen starken Einfluss auf die Ereignisse um 1968 in Frankreich ausübte, sondern deren Ansätze noch bis heute im linken Spektrum, inner- wie außerparteilich, für Diskussionsstoff sorgen.
Welcher Diskurs wird um Jungenarbeit als geschlechtssensible pädagogische Arbeit mit männlichen Kindern und Jugendlichen und deren Umsetzung in kurzzeitpädagogischen außerunterrichtlichen Angeboten geführt? Thomas Viola Rieske geht dieser Frage nach und legt nahe, dass Normativität als unausweichlicher Bestandteil pädagogischer Praxis anerkannt und zugleich kritisch reflektiert werden muss, um Jungen in ihrer Entwicklung stärken zu können. Er diskutiert die verschiedenen geschlechtertheoretischen und pädagogischen Grundpositionen, die im Fachdiskurs über Jungenarbeit bestehen und untersucht die Umsetzung von Jungenarbeit. Er zeigt auf, dass die Teilnehmer der beobachteten Jungenseminare einerseits zu einem partnerschaftlichen, normenkritischen und direkten Kontakt mit sich und anderen befähigt werden, andererseits aber auch Zuschreibungen, Grenzüberschreitungen und ein Übergehen ihrer Bedürfnisse erfahren.
Symbolische Bedeutungen sind für den Erfolg von Marken heutzutage unerlässlich, denn Produkte lassen sich in postmodernen Konsumgesellschaften meist nicht mehr ausschließlich durch funktionale Leistungsunterschiede vom Wettbewerb differenzieren. Vielmehr sollten Marken zudem über einen signifikanten Zusatznutzen verfügen, welcher grundsätzlich sozialpsychologischer Natur ist. Dieser in der Markenpersönlichkeit verdichtete symbolische Kern spricht die zentralen menschlichen Bedürfnisse nach Selbstdefinition und Selbstausdruck an, da Individuen sich als „soziale Tiere“ grundlegend über die Zugehörigkeit zu sozialen Gruppen definieren. Einstellungen relevanter Bezugspersonen zum eigenen Selbstbild sind fundamental für die persönliche Standortbestimmung. Genauso leiten Konsumenten symbolische Markenbedeutungen von ihren Bezugsgruppen ab. Individuen evaluieren demnach permanent, inwiefern die wahrgenommene Markenpersönlichkeit zum aktuellen bzw. angestrebten Selbstkonzept passt. Diese dargestellten Phänomene unterliegen dem kulturellen Einfluss der jeweiligen Gesellschaft, in der sie sich herausbilden. Die symbolischen Bedeutungen von Selbstbildern und Marken formen sich also zwischen Kulturen bspw. unter unterschiedlich stark geartetem sozialem Einfluss.
Die Untersuchung geht demnach der Frage auf den Grund, inwiefern die soziale Umgebung Einfluss auf die Wahrnehmung symbolischer Markenaspekte und deren wahrgenommener Kongruenz zum Selbstkonzept von Konsumenten ausübt. Darüber hinaus eruiert der Verfasser intensiv, ob und in welchem Umfang die Empfänglichkeit für die verschiedenen Facetten sozialen Einflusses von der Enkulturation des Konsumenten abhängt.
Es werden somit Forderungen aus Marketing- und Konsumentenverhaltensforschung adressiert, wonach die sozialen sowie die kulturellen Einflusskomponenten stärker zu berücksichtigen sind, um ein vollständigeres Bild von Konsumentscheidungen zu erlangen.
Die zahlreichen theoretischen und empirischen Erkenntnisse der Studie weisen auf wichtige Implikationen für die intra- und interkulturelle Segmentierung von Zielgruppen hin. Empfehlungen für die strategische Positionierung von symbolischen Markenkernen und deren Kommunikation werden ebenfalls geliefert.
Innerhalb der EU wird die Fusionskontrolle auf zwei vertikal nachgelagerten Ebenen durchgeführt, der europäischen und der nationalen Instanz. Da beide Ebenen nicht unverbunden sind, ergibt sich ein mehrdimensionales Kompetenzproblem. Die Fusionskontrollkompetenzen sind vertikal (europäische versus mitgliedstaatliche Ebene) und horizontal (mitgliedstaatliche Ebene) abgegrenzt. Während auf vertikaler Ebene konkurrierende Zuständigkeiten ausgeschlossen sind, sind horizontal Überlappungen möglich.
Die Arbeit beschäftigt sich mit Konflikten bei der Abgrenzung von Fusionskontrollkompetenzen. Zudem wird ein Alternativmodell erarbeitet, das dem bestehenden System aus ökonomischer Perspektive überlegen ist.
Der Mensch in der Moderne lebt in einem Spannungsverhältnis zwischen all dem, was nun menschenmöglich erscheint und dem, was er als Einzelner, aufgrund seines beschränkten Kräftehaushalts, zu leisten vermag. Die notwendige Spezialisierung in einem beschränkten Feld schließt ihn, wie Max Weber es in »Wissenschaft als Beruf« darstellt, von vielen anderen Bereichen aus. Besonders eklatant wird dies in der Zeit der Wende vom 19. zum 20. Jahrhundert empfunden, welche die verschiedensten Versuche hervorbringt, Synthesen zwischen den ausdifferenzierten Wissensgebieten herzustellen. Einen besonderen Stellenwert hat hier das Wissen der Naturwissenschaftler, auf welche noch der materialistische und positivistische Optimismus des 19. Jahrhunderts wirkt.
An den Autobiographien des spanischen Histologen Santiago Ramón y Cajal (1852-1934) und des deutschen Chemikers Wilhelm Ostwald (1853-1932) zeigt sich exemplarisch, wie naturwissenschaftliche Spezialisten als Autoren auf dieses Spannungsverhältnis reagieren. In drei Kapiteln führt die literaturwissenschaftliche Untersuchung vor, wie die Autoren sprachliche Formen aus ihrer Spezialisierung entlehnen und für die Darstellung des eigenen Lebens nutzen. Historisch führt die Lektüre zu dem Schluss, dass in diesen Texten eine Verschiebung des Positivismus aus der Philosophie in die Autobiographik stattfindet.
Systematisch stellt der im Band entwickelte Begriff des biographischen Lebenswissens einen Versuch dar, das Leben des Einzelnen für die Sinngebung im Text starkzumachen, ohne in Biographismus oder ein Konzept starker Autorschaft zurückzufallen.
Exzentrik und Bürgertum
(2015)
Es wird eine verzweigte Intellektuellen- und Ideengeschichte um 1900 aufgeschlagen. Der Sozialphilosoph – heute aber vor allem als Schwiegersohn Wagners, Bayreuther Ideologe und Vordenker Hitlers bekannte – Chamberlain pflegte intensive Beziehungen zu jüdischen Intellektuellen. Erstaunliche Konstellationen zwischen Rassentheorie, Kulturreform, Kunst und Wissenschaft werden in einer Zeit lebendig, in der sich antisemitische und zionistische Anschauungen konsolidierten, revolutionär Konservative auf avantgardistische Künstler trafen und sich reformbewegte Sonnenanbeter gleichzeitig links- und rechtspopulistisch orientierten.
Kritische Untersuchungen zu Chamberlain und Persönlichkeiten jüdischer Herkunft sind ein Desiderat. Die Analyse und Auswertung dieser unbekannten Korrespondenzen und Hintergründe zielen in den Kernbereich deutsch-jüdischer Forschung. Das Buch zeigt Chamberlain, der in der kulturellen Szene Wiens und Bayreuths zwischen 1890 und 1920 eine Schlüsselfigur darstellt, im feingeistigen Austausch mit jüdischen Intellektuellen wie Karl Kraus, Walther Rathenau, Maximilian Harden, Otto Weininger und Martin Buber.
Es werden ideologische Verschränkungen in der Moderne und daraus resultierende Verhaltensmuster herausragender Persönlichkeiten aufgedeckt, die in Bezug auf antisemitische Verkrümmungen und sogenannten jüdischen Selbsthass eine lange Vorgeschichte des »Dritten Reiches« belegen.
Forcing Earth’s sea level
(2015)
Peak oil is forcing our society to shift from fossil to renewable resources. However, such renewable resources are also scarce, and they too must be used in the most efficient and sustainable way possible. Biorefining is a concept that represents both resource efficiency and sustainability. This approach initiates a cascade use, which means food and feed production before material use, and an energy-related use at the end of the value-added chain. However, sustainability should already start in the fields, on the agricultural side, where the industrially-used biomass is produced. Therefore, the aim of my doctoral thesis is to analyse the sustainable feedstock supply for biorefineries. In contrast to most studies on biorefineries, I focus on the sustainable provision of feedstock and not on the bioengineering processing of whatever feedstock is available.
Grasslands provide a high biomass potential. They are often inefficiently used, so a new utilisation concept based on the biorefining approach can increase the added value from grasslands. Fodder legumes from temporary and permanent grasslands were chosen for this study. Previous research shows that they are a promising feedstock for industrial uses, and their positive environmental impact is an important byproduct to promote sustainable agricultural production systems.
Green Biorefineries are a class of biorefineries that use fresh green biomass, such as grasses or fodder legumes, as feedstock. After fractionation, an organic solution (press juice) forms; this is used for the production of organic acids, chemicals and extracts, as well as fertilisers. A fibre component (press cake) is also created to produce feed, biomaterials and biogas. This thesis examines a specific value chain, using alfalfa and clover/grass as feedstock and generating lactic acid and one type of cattle feed from it. The research question is if biomass production needs to be adapted for the utilisation of fodder legumes in the Green Biorefinery approach. I have attempted to give a holistic analysis of cultivation, processing and utilisation of two specific grassland crops. Field trials with alfalfa and clover/grass at different study sites were carried out to obtain information on biomass quality and quantity depending on the crop, study site and harvest time. The fresh biomass was fractionated with a screw press and the composition of press juices and cakes was analysed. Fermentation experiments took place to determine the usability of press juices for lactic acid production. The harvest time is not of high importance for the quality of press juices as a fermentation medium. For permanent grasslands, late cuts, often needed for reasons of nature conservation, are possible without a major influence on feedstock quality. The press cakes were silaged for feed-value determination.
Following evidence that both intermediate products are suitable feedstocks in the Green Biorefinery approach, I developed a cost-benefit analysis, comparing different production scenarios on a farm. Two standard crop rotations for Brandenburg, producing either only market crops or market crops and fodder legumes for ruminant feed production, were compared to a system that uses the cultivated fodder legumes for the Green Biorefinery value chain instead of only feed production. Timely processing of the raw material is important to maintain quality for industrial uses, so on-site processing at the farm is assumed in Green Biorefinery scenario. As a result, more added value stays in the rural area. Two farm sizes, common for many European regions, were chosen to examine the influence of scale. The cost site of farmers has also been analysed in detail to assess which farm characteristics make production of press juices for biochemical industries viable. Results show that for large farm sizes in particular, the potential profits are high. Additionally, the wider spectrum of marketable products generates new sources of income for farmers.
The holistic analysis of the supply chain provides evidence that the cultivation processes for fodder legumes do not need to be adapted for use in Green Biorefineries. In fact, the new utilisation approach even widens the cultivation and processing spectrum and can increase economic viability of fodder legume production in conventional farming.
In den letzten Jahrzehnten ist der Trend der Verselbstständigung in vielen Kommunen zu beobachten. Ein Großteil der öffentlichen Leistungserbringer wird mittlerweile als privatrechtliche Gesellschaften in einem wettbewerbsorientierten Umfeld geführt. Während viele Forscher Ausgliederungen in Form von nachgeordneten Behörden auf Bundesebene untersuchen und diese Reformwelle als einen faktischen Autonomisierungsprozess beschreiben, gibt es nur einige wenige Studien, die sich explizit mit den Autonomisierungstendenzen auf Kommunalebene auseinandersetzen. Daher fehlt es an empirischen Erkenntnissen zur Steuerung der kommunalen Beteiligungen.
In dieser Arbeit werden die Steuerungsarrangements deutscher Großstädte erstmals aus Sicht der Gesteuerten beleuchtet. Das Untersuchungsziel der vorliegenden Forschungsarbeit besteht darin, Flexibilisierungstendenzen in mehrheitlich kommunalen Unternehmen zu identifizieren und hierfür Erklärungsfaktoren zu identifizieren. Die Forschungsfrage lautet: Welche instrumentellen und relationalen Faktoren beeinflussen die Managementautonomie in kommunalen Mehrheitsbeteiligungen?
Dabei interessiert insbesondere die Einflussnahme der Kommunen auf verschiedene Tätigkeitsbereiche ihrer Ausgliederungen. Über diese unternehmensspezifischen Sachverhalte ist in Deutschland fast nichts und international nur sehr wenig Empirisches bekannt. Zur Beantwortung der Forschungsfrage hat der Autor auf Basis der Transaktionskosten- und der Social-Exchange-Theorie einen Analyserahmen erstellt. Die aufgestellten Hypothesen wurden mit einer großflächigen Umfrage bei 243 Unternehmen in den 39 größten deutschen Städten empirisch getestet.
Im Ergebnis zeigen sich mehrere empirische Erkenntnisse: Erstens konnten mittels Faktorenanalyse vier unabhängige Faktoren von Managementautonomie in kommunalen Unternehmen identifiziert werden: Personalautonomie, Generelles Management, Preisautonomie und Strategische Fragen. Während die Kommunen ihren Beteiligungen einen hohen Grad an Personalautonomie zugestehen, unterliegen vor allem strategische Investitionsentscheidungen wie die finanzielle Beteiligung an Tochterfirmen, große Projektvorhaben, Diversifikationsentscheidungen oder Kreditautfnahmen einem starken politischen Einfluss.
Zweitens führt eine Rechtsformänderung und die Platzierung in einem Wettbewerbsumfeld (auch bekannt als Corporatisation) vor allem zu einer größeren Flexibilisierung der Personal- und Preispolitik, wirkt sich allerdings wenig auf die weiteren Faktoren der Managementautonomie, Generelles Management und Strategische Entscheidungen, aus. Somit behalten die Kommunen ihre Möglichkeit, auf wichtige Unternehmensfragen der Beteiligung Einfluss zu nehmen, auch im Fall einer Formalprivatisierung bei.
Letztlich können zur Erklärung der Autonomiefaktoren transaktionskostenbasierte und relationale Faktoren ergänzend herangezogen werden. In den Transaktionsspezifika wirken vor allem der wahrgenommene Wettbewerb in der Branche, die Messbarkeit der Leistung, Branchenvariablen, die Anzahl der Politiker im Aufsichtsrat und die eingesetzten Steuerungsmechanismen. In den relationalen Faktoren setzen sich die Variablen gegenseitiges Vertrauen, Effektivität der Aufsichtsräte, Informationsaustausch, Rollenkonflikte, Rollenambivalenzen und Geschäftsführererfahrung im Sektor durch.
In der vorliegenden Dissertation werden Migrationsdiskurse in der deutschen Grenzregion zu Polen im Vorfeld der EU-Erweiterung zum 1. Mai 2004 exemplarisch in drei deutschen Grenzstädten, der jeweils westliche Teil der ehemals gemeinsamen, seit 1945 durch eine nationalstaatliche Grenze mit dem jeweils zeitspezifischen Grenzregime geteilten, deutsch-polnischen Zwillingsstädte Frankfurt (Oder) – Słubice, Guben – Gubin und Görlitz – Zgorzelec, analysiert.
Ausgewählt wurde der Untersuchungsraum mit Blick auf die tiefgreifenden europäischen Transformationsprozesse seit den späten 1980er Jahren, die für die örtliche Bevölkerung gravierende lebensweltliche Strukturumbrüche zur Folge hatten. Die Region wurde mit der Vereinigung der beiden deutschen Staaten überdies zu einem zentralen Aktionsraum nationaler und internationaler Migrationspolitik; ihr wurde eine wichtige stellvertretende Funktion betreffend die Zutrittsregelung zugewiesen. Mit der EU-Erweiterung waren für die Region neuerliche, unmittelbare Veränderungen verbunden, die vor Ort gerade auch aufgrund damit (mutmaßlich) einhergehender Migration eher als Bedrohung denn als Chance gedeutet wurden.
Den diskurstheoretischen Hintergrund der Untersuchungen stellen in erster Linie die Arbeiten von Michel Foucault und die von Siegfried Jäger darauf aufruhend konzipierte Kritische Diskursanalyse bereit. Diskurs wird – grob vereinfacht – als Fluss von sozialen Wissensbeständen und Bewusstseinsinhalten durch die Zeit verstanden, der individuelles und kollektives Handeln von Menschen bestimmt; Diskurse sind der Ort, an dem (Be-)Deutungen von Menschen ausgehandelt, verändert und der Wirklichkeit zugewiesen werden. Der Forschungszugang versteht sich als Teil der Neuen Kulturgeographie, die konsequent nicht-essentialistisch und erkenntnistheoretisch nicht-fundamentalistisch ist.
Die Datenbasis der empirischen Analysen repräsentieren zwei Ebenen bzw. Teilsektoren des Diskurses. Zum einen die Berichterstattung der jeweils monopolartigen regionalen Tageszeitung in Frankfurt (Oder), Guben und Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/Lokalausgabe Guben, Sächsische Zeitung/Görlitzer Zeitung). Zum anderen ein Sample von insgesamt 17 Experteninterviews mit lokalen Funktionsträgern, die mit Blick auf ihr, an ihre spezifische professionelle und/oder ehrenamtliche Tätigkeit gebundenes, praxisgesättigtes Sonder- bzw. Insiderwissen zum Thema Migration ausgewählt und befragt wurden.
Die durchgeführten Analysen verdeutlichen unter anderem die Bedeutung diskurssemantischer Grundfiguren des deutschen Migrationsdiskurses im Sinne politisch und alltagskulturell konservierter migrationskritischer Vorstellungsinhalte und Bedeutungszuweisungen zu Kategorien des Fremden und Konstruktionen von Wir und/vs. Sie. Ebenso explizieren sie eine gravierende Diskrepanz zwischen dem lokalen Staat und der Lebenswelt der lokalen Bevölkerung.
Empathie im Gespräch
(2015)
Wie wird Empathie im Gespräch zum Ausdruck gebracht? Dieser Frage geht die vorliegende Untersuchung von Erzählungen persönlicher Erlebnisse in deutschen Alltags- und Radiogesprächen nach. Es wird gezeigt, welche verbalen, vokalen und kinesischen Ressourcen GesprächsteilnehmerInnen für kommunikative Verfahren verwenden, die sozial-emotionales Verstehen und/oder Mitgefühl nahe legen. Die theoretisch-methodische Grundlage der Arbeit bilden Konversationsanalyse, Interaktionale Linguistik und Multimodalitätsforschung. Phänomene des sozialen Miteinanders wie Empathie, Verstehen, Verständnis und Affektivität werden als interaktional hervorgebrachte Darstellungen analysiert, so wie GesprächsteilnehmerInnen sie füreinander konstruieren und interpretieren. Empathie wird also als beobachtbares Phänomen tatsächlicher Lebenswelt beschrieben. Diese interaktionslinguistische Perspektive leistet nicht nur einen empirischen Beitrag zur konversationsanalytischen Affektivitätsforschung. Sie bereichert darüber hinaus die aktuelle disziplinübergreifende Empathieforschung.
Earthquake clustering has proven the most useful tool to forecast changes in seismicity rates in the short and medium term (hours to months), and efforts are currently being made to extend the scope of such models to operational earthquake forecasting. The overarching goal of the research presented in this thesis is to improve physics-based earthquake forecasts, with a focus on aftershock sequences. Physical models of triggered seismicity are based on the redistribution of stresses in the crust, coupled with the rate-and-state constitutive law proposed by Dieterich to calculate changes in seismicity rate. This type of models are known as Coulomb- rate and-state (CRS) models. In spite of the success of the Coulomb hypothesis, CRS models typically performed poorly in comparison to statistical ones, and they have been underepresented in the operational forecasting context. In this thesis, I address some of these issues, and in particular these questions: (1) How can we realistically model the uncertainties and heterogeneity of the mainshock stress field? (2) What is the effect of time dependent stresses in the postseismic phase on seismicity? I focus on two case studies from different tectonic settings: the Mw 9.0 Tohoku megathrust and the Mw 6.0 Parkfield strike slip earthquake. I study aleatoric uncertainties using a Monte Carlo method. I find that the existence of multiple receiver faults is the most important source of intrinsic stress heterogeneity, and CRS models perform better when this variability is taken into account. Epistemic uncertainties inherited from the slip models also have a significant impact on the forecast, and I find that an ensemble model based on several slip distributions outperforms most individual models. I address the role of postseismic stresses due to aseismic slip on the mainshock fault (afterslip) and to the redistribution of stresses by previous aftershocks (secondary triggering). I find that modeling secondary triggering improves model performance. The effect of afterslip is less clear, and difficult to assess for near-fault aftershocks due to the large uncertainties of the afterslip models. Off-fault events, on the other hand, are less sensitive to the details of the slip distribution: I find that following the Tohoku earthquake, afterslip promotes seismicity in the Fukushima region. To evaluate the performance of the improved CRS models in a pseudo-operational context, I submitted them for independent testing to a collaborative experiment carried out by CSEP for the 2010-2012 Canterbury sequence. Preliminary results indicate that physical models generally perform well compared to statistical ones, suggesting that CRS models may have a role to play in the future of operational forecasting. To facilitate efforts in this direction, and to enable future studies of earthquake triggering by time dependent processes, I have made the code open source. In the final part of this thesis I summarize the capabilities of the program and outline technical aspects regarding performance and parallelization strategies.
Die Phyllosphäre
(2015)
Most of the baryonic matter in the Universe resides in a diffuse gaseous phase in-between galaxies consisting mostly of hydrogen and helium. This intergalactic medium (IGM) is distributed in large-scale filaments as part of the overall cosmic web. The luminous extragalactic objects that we can observe today, such as galaxies and quasars, are surrounded by the IGM in the most dense regions within the cosmic web. The radiation of these objects contributes to the so-called ultraviolet background (UVB) which keeps the IGM highly ionized ever since the epoch of reionization.
Measuring the amount of absorption due to intergalactic neutral hydrogen (HI) against extragalactic background sources is a very useful tool to constrain the energy input of ionizing sources into the IGM. Observations suggest that the HI Lyman-alpha effective optical depth, τ_eff, decreases with decreasing redshift, which is primarily due to the expansion of the Universe. However, some studies find a smaller value of the effective optical depth than expected at the specific redshift z~3.2, possibly related to the complete reionization of helium in the IGM and a hardening of the UVB. The detection and possible cause of a decrease in τ_eff at z~3.2 is controversially debated in the literature and the observed features need further explanation.
To better understand the properties of the mean absorption at high redshift and to provide an answer for whether the detection of a τ_eff feature is real we study 13 high-resolution, high signal-to-noise ratio quasar spectra observed with the Ultraviolet and Visual Echelle Spectrograph (UVES) at the Very Large Telescope (VLT). The redshift evolution of the effective optical depth, τ_eff(z), is measured in the redshift range 2.7≤z≤3.6. The influence of metal absorption features is removed by performing a comprehensive absorption-line-fitting procedure.
In the first part of the thesis, a line-parameter analysis of the column density, N, and Doppler parameter, b, of ≈7500 individually fitted absorption lines is performed. The results are in good agreement with findings from previous surveys.
The second (main) part of this thesis deals with the analysis of the redshift evolution of the effective optical depth. The τ_eff measurements vary around the empirical power law τ_eff(z)~(1+z)^(γ+1) with γ=2.09±0.52. The same analysis as for the observed spectra is performed on synthetic absorption spectra. From a comparison between observed and synthetic spectral data it can be inferred that the uncertainties of the τ_eff values are likely underestimated and that the scatter is probably caused by high-column-density absorbers with column densities in the range 15≤logN≤17. In the real Universe, such absorbers are rarely observed, however. Hence, the difference in τ_eff from different observational data sets and absorption studies is most likely caused by cosmic variance. If, alternatively, the disagreement between such data is a result of an too optimistic estimate of the (systematic) errors, it is also possible that all τ_eff measurements agree with a smooth evolution within the investigated redshift range. To explore in detail the different analysis techniques of previous studies an extensive literature comparison to the results of this work is presented in this thesis.
Although a final explanation for the occurrence of the τ_eff deviation in different studies at z~3.2 cannot be given here, our study, which represents the most detailed line-fitting analysis of its kind performed at the investigated redshifts so far, represents another important benchmark for the characterization of the HI Ly-alpha effective optical depth at high redshift and its indicated unusual behavior at z~3.2.
Electron transfer (ET) reactions play a crucial role in the metabolic pathways of all organisms. In biotechnological approaches, the redox properties of the protein cytochrome c (cyt c), which acts as an electron shuttle in the respiratory chain, was utilized to engineer ET chains on electrode surfaces. With the help of the biopolymer DNA, the redox protein assembles into electro active multilayer (ML) systems, providing a biocompatible matrix for the entrapment of proteins.
In this study the characteristics of the cyt c and DNA interaction were defined on the molecular level for the first time and the binding sites of DNA on cyt c were identified. Persistent cyt c/DNA complexes were formed in solution under the assembly conditions of ML architectures, i.e. pH 5.0 and low ionic strength. At pH 7.0, no agglomerates were formed, permitting the characterization of the NMR spectroscopy. Using transverse relaxation-optimized spectroscopy (TROSY)-heteronuclear single quantum coherence (HSQC) experiments, DNAs’ binding sites on the protein were identified. In particular, negatively charged AA residues, which are known interaction sites in cyt c/protein binding were identified as the main contact points of cyt c and DNA.
Moreover, the sophisticated task of arranging proteins on electrode surfaces to create functional ET chains was addressed. Therefore, two different enzyme types, the flavin dependent fructose dehydrogenase (FDH) and the pyrroloquinoline quinone dependent glucose dehydrogenase (PQQ-GDH), were tested as reaction partners of freely diffusing cyt c and cyt c immobilized on electrodes in mono- and MLs. The characterisation of the ET processes was performed by means of electrochemistry and the protein deposition was monitored by microgravimetric measurements. FDH and PQQ-GDH were found to be generally suitable for combination with the cyt c/DNA ML system, since both enzymes interact with cyt c in solution and in the immobilized state. The immobilization of FDH and cyt c was achieved with the enzyme on top of a cyt c monolayer electrode without the help of a polyelectrolyte. Combining FDH with the cyt c/DNA ML system did not succeed, yet. However, the basic conditions for this protein-protein interaction were defined. PQQ-GDH was successfully coupled with the ML system, demonstrating that that the cyt c/DNA ML system provides a suitable interface for enzymes and that the creation of signal chains, based on the idea of co-immobilized proteins is feasible.
Future work may be directed to the investigation of cyt c/DNA interaction under the precise conditions of ML assembly. Therefore, solid state NMR or X-ray crystallography may be required. Based on the results of this study, the combination of FDH with the ML system should be addressed. Moreover, alternative types of enzymes may be tested as catalytic component of the ML assembly, aiming on the development of innovative biosensor applications.
Kopplungsangebote
(2015)
Kopplungsangebote, insbesondere Kundenbindungssysteme, werfen zahlreiche lauterkeits- und vertragsrechtliche Fragen auf. Das Buch stellt alle Anforderungen, die an den Inhalt und die Transparenz von Kopplungsangeboten gestellt werden, dar und berücksichtigt auch wettbewerbsrechtliche Nebengesetze (z. B. die PAngV) sowie spezialgesetzliche Kopplungsverbote. Der Autor untersucht, in welchem Fall Kopplungsgeschäfte verbotsgesetz- oder sittenwidrig sind: Ab wann stellen etwa Kopplungsangebote gegenüber Drittverantwortlichen nichtige Korruptionsabreden (§ 299 StGB) dar? Es liegt damit eine Gesamtdarstellung der Kopplungsangebote im geltenden Vertrags- und Lauterkeitsrecht vor, die den Anspruch stellt, eine Beurteilung der Zulässigkeit spezifischer Angebote so weit wie möglich abstrakt zuzulassen.
Plant cell walls are complex structures that underpin plant growth and are widely exploited in diverse human activities thus placing them with a central importance in biology. Cell walls have been a prominent area of research for a long time, but the chemical complexity and diversity of cell walls not just between species, but also within plants, between cell-types, and between cell wall micro-domains pose several challenges. Progress accelerated several-fold in cell wall biology owing to advances in sequencing technology, aided soon thereafter by advances in omics and imaging technologies. This development provides additional perspectives of cell walls across a rapidly growing number of species, highlighting a myriad of architectures, compositions, and functions.
Furthermore, rather than the component centric view, integrative analysis of the different cell wall components across system-levels help to gain a more in-depth understanding of the structure and biosynthesis of the cell envelope and its interactions with the environment.
To this end, in this work three case studies are detailed, all pertaining to the integrative analysis of heterogeneous cell wall related data arising from different system-levels and analytical techniques. A detailed account of multiblock methods is provided and in particular canonical correlation and regression methods of data integration are discussed. In the first integrative analysis, by employing canonical correlation analysis - a multivariate statistical technique to study the association between two datasets - novel insight to the relationship between glycans and phenotypic traits is gained. In addition, sparse partial least squares regression approach that adapts Lasso penalization and allows for the selection of a subset of variables was employed. The second case study focuses on an integrative analysis of images obtained from different spectroscopic techniques. By employing yet another multiblock approach - multiple co-inertia analysis, insitu biochemical composition of cell walls from different cell-types is studied thereby highlighting the common and complementary parts of the two hyperspectral imaging techniques. Finally, the third integrative analysis facilitates gene expression analysis of the Arabidopsis root transcriptome and translatome for the identification of cell wall related genes and compare expression patterns of cell wall synthesis genes. The computational analysis considered correlation and variation of expression across cell-types at both system-levels, and also provides insight into the degree of co-regulatory relationships that are preserved between the two processes.
The integrative analysis of glycan data and phenotypic traits in cotton fibers using canonical methods led to the identification of specific polysaccharides which may play a major role during fiber development for the final fiber characteristics. Furthermore, this analysis provides a base for future studies on glycan arrays in case of developing cotton fibers. The integrative analysis of images from infrared and Raman spectroscopic approaches allowed the coupling of different analytical techniques to characterize complex biological material, thereby, representing various facets of their chemical properties. Moreover, the results from the co-inertia analysis demonstrated that the study was well adapted as it is relevant for coupling data tables in a symmetric way. Several indicators are proposed to investigate how the global and block scores are related. In addition, studying the root cells of \textit{Arabidopsis thaliana} allowed positing a novel pipeline to systematically investigate and integrate the different levels of information available at the global and single-cell level. The conducted analysis also confirms that previously identified key transcriptional activators of secondary cell wall development display highly conserved patterns of transcription and translation across the investigated cell-types. Moreover, the biological processes that display conserved and divergent patterns based on the cell-type-specific expression and translation levels are identified.
Der klassische Fernsehrundfunk genießt verfassungsrechtlich und einfachgesetzliche eine privilegierte Sonderstellung. Diese setzt sich bei der Kabelbelegung fort, wo er - insbesondere der öffentliche Rundfunk - gegenüber teemedialen Anrufangeboten bevorrechtigt wird. Hintergrund dieser Sonderstellung ist nicht zuletzt die auf den Rundfunk zentrierte Medienordnung. Die Arbeit untersucht, ob diese Medienordnung und damit die Sonderstellung des Rundfunks noch zeitgemäß ist und schlägt Anpassungen vor.
Sandra Eger befasst sich in diesem Buch mit der Möglichkeit, politisches Verstehen durch den Einsatz von Jugendliteratur zu fördern. Dabei wird sowohl die Möglichkeit eines Einsatzes im Fachunterricht Politische Bildung als auch im fächerübergreifenden Unterricht der Sekundarstufe I betrachtet. Neben einer empirischen Studie, die die Frage beantwortet, inwiefern derzeit Jugendliteratur in der Sekundarstufe I zur Förderung politischen Verstehens eingesetzt wird, bieten jugendliterarische Beispiele zur Förderung politischen Verstehens Anregungen für die Unterrichtspraxis.