Refine
Has Fulltext
- no (186) (remove)
Year of publication
- 2016 (186) (remove)
Document Type
- Doctoral Thesis (186) (remove)
Is part of the Bibliography
- yes (186)
Keywords
- Antidepressiva (1)
- Antipsychotika (1)
- Arbeitsgedächtniss (1)
- Avantgarde (1)
- Bildungsentscheidungen (1)
- Bildungsungleichheit (1)
- DON (1)
- Demenz (1)
- Deutsch als Zweitsprache (1)
- Deutsches Judentum (1)
Institute
- Institut für Biochemie und Biologie (45)
- Institut für Chemie (15)
- Historisches Institut (13)
- Institut für Ernährungswissenschaft (12)
- Wirtschaftswissenschaften (12)
- Institut für Geowissenschaften (11)
- Institut für Informatik und Computational Science (10)
- Institut für Physik und Astronomie (9)
- Institut für Germanistik (8)
- Sozialwissenschaften (8)
"Der unterirdische Kampf"
(2016)
Die militärische Rüstungsbürokratie zwischen Niederlage des Deutschen Kaiserreiches und ›Totalem Krieg‹ der NS-Diktatur – in dieses Spannungsverhältnis begibt sich der Autor. Er untersucht, wie die Fachleute des Wehrwirtschafts- und Rüstungsamtes die Mobilisierung planten – und dabei scheiterten.
Bereits kurze Zeit nach der deutschen Niederlage von 1918 wurden die wirtschaftlichen Aspekte der Kriegführung wieder von einem kleinen, hochprofessionellen Offizierskreis diskutiert. Sie nahmen Gedanken aus der Zeit des Ersten Weltkrieges auf und forderten in der Reichswehr und noch stärker in der Wehrmacht die Steuerungshoheit des Militärs über die kriegsrelevante Wirtschaft. Ihre Planungen und Maßnahmen waren nicht nur im Offizierkorps selbst umstritten, sondern unterlagen letztlich auch den Widerständen der Privatwirtschaft und den Interessen von NS-Parteigrößen. Entlang dieser Fronten beschreibt der Autor eine militärische Organisation von ihrem Aufbau 1924 bis zu ihrer ›Zerschlagung‹ durch Albert Speer 1942. Dabei nimmt er auch das alles andere als eindeutige Verhalten des Führungspersonals im Amt in den Blick.
"Seid mutig und aufrecht!"
(2016)
Der 'Centralverein deutscher Staatsbürger jüdischen Glaubens' (C.V.) wurde 1893 in Berlin gegründet. Sein Tätigkeitsschwerpunkt lag ursprünglich auf dem Gebiet des Rechtsschutzes gegen antisemitische Diskriminierungen. Eine zweite Säule seiner Arbeit war die Aufklärung der Nichtjuden über das 'wahre Wesen' des Judentums. Johann Nicolai analysiert in diesem Band unter Auswertung der Moskauer Archivbestände die Entwicklung des Vereins von 1933 bis zu seiner Auflösung im Jahr 1938. Im Mittelpunkt der Studie steht die Frage, wie der Centralverein die Fortsetzung seiner Arbeit gegenüber seinen Mitgliedern begründete, obwohl im Nationalsozialismus die grundlegenden Bürgerrechte für die deutschen Juden, die er ursprünglich verteidigen wollte, nicht mehr gewährleistet waren. Ein besonderer Fokus liegt auf der Wandlung des Centralvereins nach den Nürnberger Gesetzen und der darauf erfolgten Umbenennung und Umstrukturierung. Wesentlicher Bestandteil ist auch die Auseinandersetzung mit der jüdischen Emigration nach Übersee. Nicolai zeigt auf, dass es bis tief in die 1930er-Jahre hinein starke Spannungen im deutschen Judentum gab.
The introduction of columnar in-memory databases, along with hardware evolution, has made the execution of transactional and analytical enterprise application workloads on a single system both feasible and viable. Yet, we argue that executing analytical aggregate queries directly on the transactional data can decrease the overall system performance. Despite the aggregation capabilities of columnar in-memory databases, the direct access to records of a materialized aggregate is always more efficient than aggregating on the fly. The traditional approach to materialized aggregates, however, introduces significant overhead in terms of materialized view selection, maintenance, and exploitation. When this overhead is handled by the application, it increases the application complexity, and can slow down the transactional throughput of inserts, updates, and deletes.
In this thesis, we motivate, propose, and evaluate the aggregate cache, a materialized aggregate engine in the main-delta architecture of a columnar in-memory database that provides efficient means to handle costly aggregate queries of enterprise applications. For our design, we leverage the specifics of the main-delta architecture that separates a table into a main and delta partition. The central concept is to only cache the partial aggregate query result as defined on the main partition of a table, because the main partition is relatively stable as records are only inserted into the delta partition. We contribute by proposing incremental aggregate maintenance and query compensation techniques for mixed workloads of enterprise applications. In addition, we introduce aggregate profit metrics that increase the likelihood of persisting the most profitable aggregates in the aggregate cache.
Query compensation and maintenance of materialized aggregates based on joins of multiple tables is expensive due to the partitioned tables in the main-delta architecture. Our analysis of enterprise applications has revealed several data schema and workload patterns. This includes the observation that transactional data is persisted in header and item tables, whereas in many cases, the insertion of related header and item records is executed in a single database transaction. We contribute by proposing an approach to transport these application object semantics to the database system and optimize the query processing using the aggregate cache by applying partition pruning and predicate pushdown techniques.
For the experimental evaluation, we propose the FICO benchmark that is based on data from a productive ERP system with extracted mixed workloads. Our evaluation reveals that the aggregate cache can accelerate the execution of aggregate queries up to a factor of 60 whereas the speedup highly depends on the number of aggregated records in the main and delta partitions. In mixed workloads, the proposed aggregate maintenance and query compensation techniques perform up to an order of magnitude better than traditional materialized aggregate maintenance approaches. The introduced aggregate profit metrics outperform existing costbased metrics by up to 20%. Lastly, the join pruning and predicate pushdown techniques can accelerate query execution in the aggregate cache in the presence of multiple partitioned tables by up to an order of magnitude.
Seit Jahren steigen Politikverdrossenheit und die Zahl der Menschen an, die sich von der Gesellschaft exkludiert fühlen. Können Basisaktivierung durch Quartiersmanagement und Community Organizing diesen Trends entgegenwirken? Fördert die Ermöglichung der gesellschaftlichen Teilhabe von benachteiligten Bevölkerungsgruppen die Sozialkapitalbildung im Sinne Putnams? Um diese Fragen zu beantworten, wurden die vorhandene Literatur analysiert und zahlreiche Experteninterviews geführt.
Bedeutung der abhängigen Streuung für die optischen Eigenschaften hochkonzentrierter Dispersionen
(2016)
Boom in der Krise
(2016)
Über das Verhältnis von Konsum und Individualität.
Konsum, Tourismus, Autofahren - sind die 1970er Jahre mit diesen Schlagworten adäquat beschrieben, oder handelt es sich nicht vielmehr um ein Jahrzehnt der Krisen? Einerseits war der Alltag der westdeutschen und britischen Bevölkerung durch eine kontinuierliche Ausweitung der Konsummöglichkeiten geprägt. Andererseits kommen die Folgen des Ölschocks im Bild der leeren Autobahnen zum Ausdruck. Sina Fabian greift beide Erzählweisen auf und diskutiert die 1970er Jahre im Spannungsverhältnis von Krise und Boom. Sie untersucht den Einfluss von Ölpreis- und Wirtschaftskrisen auf den Tourismus und die PKW-Nutzung als zwei teuren Konsumgütern, die in beiden Ländern gerade während des Untersuchungszeitraums an Bedeutung gewannen. Ebenso fragt sie, inwieweit sich der steigende Konsum tatsächlich als Ausdruck fortschreitender Individualisierung begreifen lässt? Stellen Pauschalreisen und Fließbandprodukte die Individualisierungsthese nicht weit eher in Frage? Anhand unterschiedlicher Quellen, die von statistischen Erhebungen bis hin zu Tagebüchern und Reiseberichten aus der Bevölkerung reichen, relativiert die Autorin herkömmliche Lesarten der inzwischen vielfach historisierten 1970er Jahre.
Christoph Sebastian Widdau leistet mit seinem Buch einen innovativen Beitrag zur Cassirer-Forschung, zu den Leibniz-Studien und zur Begründung der Menschenrechte. Er wirft ein ideengeschichtlich und philosophisch neues Licht auf die 'Natur' im Naturrecht, die kulturelle Bedeutung des Individuums und den Pluralismus politischer Ordnungen. Mit 'Cassirers Leibniz' zeigt Widdau auf, dass Menschenrechte kein beliebiger Zusatz zur Kultur, sondern vielmehr kulturkonstitutiv sind.
Changes in extratropical storm track activity and their implications for extreme weather events
(2016)
Characterization of the Clp protease complex and identification of putative substrates in N. tabacum
(2016)
Das Buch richtet den Blick auf die zahllosen immer schon in Derridas Grammatologie. Dadurch wird die Strategie der Schrifttheorie ihrer eigenen Initialisierung unterstellt.
Auf dem vom immer schon abgesteckten Zickzackparcours durch die abendländische Metaphysikgeschichte wird das Kalkül der grammatologischen Begründungspraxis gegen sich selbst in Stellung gebracht. Das Experiment ist riskant, verführt das immer schon doch zu einem Vergleich der grammatologischen Ursprungsgenese mit jener in der jüdischen Schrifttradition. Eine beiläufige Bemerkung Derridas über Moses Mendelssohn ermöglicht das Auslesen einer Spur, die hinter die Grenzposten der griechischen Philosophie führt. Dabei treten bemerkenswerte Analogien zwischen dem Schriftbegriff Derridas und in dem jüdischen Schrifttradition hervor: das Verhältnis von Mündlichkeit und Schriftlichkeit sowie die in dieser Relation zum Tragen kommende Vorstellung einer Schrift, die älter ist als die Schrift selbst - einer Schrift.
Der Patriotismus gehört in der zweiten Hälfte des 18. Jahrhunderts zu den zentralen Themen der bürgerlichen Schichten im Europa der Aufklärung. In den Grenzen der Alten Eidgenossenschaft sticht dabei die Helvetische Gesellschaft heraus, eine Sozietät, die in einem Zeitraum von fast vierzig Jahren über Themen wie Freiheit, Bildung, Tugend und eben Vaterlandliebe debattierte.
Die vorliegende Untersuchung unterzieht die schriftlichen Zeugnisse dieser Debatten und andere eidgenössische Schriften jener Zeit einer Vokabularanalyse, einer neuartigen Textanalyse, die eine Annäherung an den Sprachgebrauch dieser Epoche erlaubt. Dabei steht das Vokabular der Vaterlandsliebe im Mittelpunkt, welches in den einzelnen Texten in ganz unterschiedlicher Weise Verwendung gefunden hat. Durch diese Analyseform ist es möglich, erste Antworten auf zentrale Fragen der Ideengeschichte zu formulieren – ob etwa ein Autor in einer Textpassage ein ganz bestimmtes Wort, einen wohldefinierten Begriff verwendet hat, den ein anderer Autor im selben Zusammenhang bewusst vermieden hat.
Anhand der in dieser Untersuchung entwickelten Vokabularanalyse wird es darüber hinaus möglich, der Frage nachzugehen, ob die Begriffe Patriotismus und Vaterlandsliebe, wie sie in der Forschung verwendet werden, den Intentionen der zeitgenössischen Autoren gerecht werden. Mit der Methode der Vokabularanalyse wird dem Historiker somit ein Instrument in die Hände gelegt, auf spezifische Weise die Absichten eines einzelnen Autors einer vergangenen Epoche durch den Vergleich mit anderen Autoren näher zu ergründen.
Datenbankbasierte epidemiologische Untersuchung über die Versorgung demenzerkrankter Patienten
(2016)
Hintergrund:
Demenz wird von der Weltgesundheitsorganisation als ein in der Regel chronisch oder progressiv verlaufendes Syndrom definiert, das von einer Vielzahl von Hirnerkrankungen verursacht wird, welche das Gedächtnis, das Denkvermögen, das Verhalten und die Fähigkeit, alltägliche Tätigkeiten auszuführen, beeinflussen. Weltweit leiden 47,5 Millionen Menschen unter Demenz und diese Zahl wird sich voraussichtlich bis zum Jahr 2050 verdreifachen.
In den vorliegenden Studien wurden zum Einem die Faktoren, welche mit dem Risiko einhergehen eine Demenz zu entwickeln, analysiert. Zum Anderen wurde die Persistenz der medikamentösen Behandlung von depressiven Zuständen mit Antidepressiva sowie die Persistenz der medikamentösen Behandlung von Verhaltensstörungen, therapiert mit Antipsychotika, bei Demenzpatienten untersucht.
Durchführung:
Alle drei Studien basieren auf den Daten der IMS Disease Analyzer-Datenbank.
Die Daten der Disease Analyzer-Datenbank werden über standardisierte Schnittstellen direkt monatlich aus dem Praxiscomputer generiert. Die Daten werden vor der Übertragung verschlüsselt und entsprechen in Umfang und Detaillierungsgrad der Patientenakte.
Risikofaktoren für eine Demenzdiagnose
Methode:
Insgesamt wurden in die Studie 11.956 Patienten mit einer Erstdiagnose (Indexdatum) einer Demenz (ICD 10: F01, F03, G30) zwischen Januar 2010 und Dezember 2014 eingeschlossen. 11.956 Kontrollpatienten (ohne Demenz) wurden den Patienten nach Alter, Geschlecht, Art der Krankenversicherung und Arzt zugeordnet. In beiden Fällen wurden die Praxisaufzeichnungen dazu verwendet, sicherzustellen, dass die Patienten vor dem Indexdatum jeweils 10 Jahre kontinuierlich beobachtet worden waren. Insgesamt wurden 23.912 Personen betrachtet.
Mehrere Erkrankungen, die möglicherweise mit Demenz assoziiert sind, wurden anhand von allgemeinärztlichen Diagnosen bestimmt (ICD-10-Codes): Diabetes (E10-E14), Hypertonie (I10), Adipositas (E66), Hyperlipidämie (E78), Schlaganfall (einschließlich transitorische ischämische Attacke, TIA) (I63, I64, G45), Parkinson-Krankheit (G20, G21), intrakranielle Verletzung (S06), koronare Herzkrankheit (I20-I25), leichte kognitive Beeinträchtigung (F06) und psychische und Verhaltensstörungen durch Alkohol (F10). Das Vorhandensein mehrerer Medikamente, wie z. B. Statine, Protonenpumpenhemmer und Antihypertensiva (einschließlich Diuretika, Beta-Blocker, Calciumkanalblocker, ACE-Hemmer und Angiotensin-II), wurde ebenfalls bemessen.
Ergebnisse:
Das Durchschnittsalter für die 11.956 Demenzpatienten und die 11.956 der Kontrollkohorte war 80,4 (SD 5,3) Jahre. 39,0% der waren männlich. In dem multivariaten Regressionsmodell, wurden folgende Variablen mit einem erhöhten Risiko von Demenz in einem signifikanten Einfluß assoziiert: milde kognitive Beeinträchtigung (MCI) (OR: 2,12), psychische und Verhaltensstörungen durch Alkohol (1,96), Parkinson-Krankheit (PD) (1,89), Schlaganfall (1,68), intrakranielle Verletzung (1,30), Diabetes (1,17), Fettstoffwechselstörung (1,07), koronare Herzkrankheit (1,06). Der Einsatz von Antihypertensiva (0,96), Statinen (OR: 0,94) und Protonen-Pumpen-Inhibitoren (PPI) (0,93) wurden mit einem verringerten Risiko der Entwicklung von Demenz.
Schlussfolgerung:
Die gefundenen Risikofaktoren für Demenz stehen in Einklang mit der Literatur. Nichtsdestotrotz bedürfen die Zusammenhänge zwischen der Verwendung von Statinen, PPI und Antihypertensiva und einem verringerten Demenzrisiko weiterer Untersuchungen.
Persistenz der Behandlung mit Antidepressiva bei Patienten mit Demenz
Methode:
Patienten wurden ausgewählt, wenn bei ihnen im Zeitraum zwischen Januar 2004 und Dezember 2013 eine Demenzdiagnose (ICD 10: F01, F03, G30) und eine erste Verordnung eines trizyklischen Antidepressivums oder selektiven Serotonin-
Wiederaufnahmehemmers (SSRI) oder Serotonin-Noradrenalin-Wiederaufnahmehemmers (SSNRI) vorlagen. Ausgewählte Patienten wurden über einen Zeitraum von bis zu zwei Jahre nach dem Indexdatum beobachtet. Das letzte Nachbeobachtungsdatum eines Patienten war der 31. Dezember 2014. Insgesamt standen 12.281 Patienten für die Persistenzanalyse zur Verfügung. Der Hauptzielparameter war die Abbruchrate der Antidepressivabehandlung innerhalb von sechs Monaten nach dem Indexdatum. Behandlungsabbruch wurde definiert als ein Zeitraum von 90 Tagen ohne diese Therapie.
Als demographische Daten wurden Alter, Art der Krankenversicherung (privat oder gesetzlich), Art der Praxis (Neurologe oder Allgemeinmediziner) und Praxisregion (Ost- oder Westdeutschland) erhoben. Die folgenden Demenzdiagnosen wurden berücksichtigt: Alzheimer-Krankheit (G30), vaskuläre Demenz (F01) und nicht näher bezeichnete Demenz (F03). Darüber hinaus wurde der Charlson-Komorbiditäts-Index als allgemeiner Marker für Komorbidität verwendet. Darüber hinaus wurden die folgenden Diagnosen als Komorbiditäten in die Studie aufgenommen: Depression (ICD 10: F32-33), Delir (F05), Typ-2-Diabetes mellitus (E11, E14), Hypertonie (I10), koronare Herzkrankheit (I24, I25), Schlaganfall (I63, I64), Myokardinfarkt (I21-23) und Herzinsuffizienz (I50).
Ergebnisse:
Nach sechs Monaten Nachbeobachtung hatten 52,7 % (von 12,281 Demenzpatienten) der mit Antidepressiva behandelten Demenzpatienten die Medikamenteneinnahme abgebrochen. Die multivariaten Regressionsanalysen zeigten ein signifikant geringeres Risiko für einen Behandlungsabbruch bei mit SSRRI oder SSNRI behandelten Patienten verglichen mit Patienten, die trizyklische Antidepressiva einnahmen. Es zeigte sich ein signifikant geringeres Risiko eines Behandlungsabbruchs bei jüngeren Patienten.
Schlussfolgerung:
Die Ergebnisse zeigen eine unzureichende Persistenz mit Antipsychotika bei Demenzpatienten unter Alltagsbedingungen. Es muss eine Verbesserung erreicht werden, um die in den Richtlinien empfohlene Behandlung sicherzustellen.
Persistenz der Behandlung mit Antipsychotika bei Patienten mit Demenz
Methode:
Diese Studie umfasste Patienten im Alter ab 60 Jahren mit Demenz beliebigen Ursprungs, die zwischen Januar 2009 und Dezember 2013 (Indexdatum) zum ersten Mal Antipsychotikaverordnungen (ATC: N05A) von deutschen Psychiatern erhielten. Der Nachbeobachtungszeitraum endete im Oktober 2015. Die Demenz wurde auf Grundlage der ICD-10-Codes für vaskuläre Demenz (F01), nicht näher bezeichnete Demenz (F03) und Alzheimer-Krankheit (G30) bewertet.
Der Hauptzielparameter war die Behandlungspersistenzrate über einen Zeitraum von mehr als 6 Monaten nach dem Indexdatum. Die Persistenz wurde als Therapiezeit ohne Absetzen der Behandlung, definiert als mindestens 180 Tage ohne Antipsychotikatherapie, geschätzt. Alle Patienten wurden für eine Dauer von bis zu zwei Jahren ab ihrem Indexdatum beobachtet.
Gleichzeitig auftretende Erkrankungen wurden anhand von Diagnosen (ICD-10-Codes) von Depression (F32, F33), Parkinson-Krankheit (G20), psychischer Störungen aufgrund bekannter physiologischer Erkrankungen (F06) und Persönlichkeits- und Verhaltensstörungen aufgrund physiologischer Erkrankungen (F07) bestimmt. Als demographische Daten wurden Alter, Geschlecht und Art der Krankenversicherung (privat/gesetzlich) erhoben.
Ergebnisse:
12,979 Demenzpatienten mit einem Durchschnittsalter von 82 Jahre (52.1% leben in Pflegeheimen) wurden in diese Studie analysiert. Nach zwei Jahren Nachbeobachtung hatten 54,8 %, 57,2 %, 61,1 % bzw. 65,4 % der Patienten zwischen 60-69, 70-79, 80-89 bzw. 90-99 Jahren Antipsychotikaverordnungen erhalten (p<0,001). 82,6 % der in Pflegeheimen lebenden Patienten und 76,2 % der Patienten in häuslicher Pflege setzten ihre Behandlung ebenfalls länger als 6 Monate fort; nach zwei Jahren lag der Anteil bei 63,9 % (in Pflegeheimen) bzw. 55,0 % (in häuslicher Pflege) (p<0,001).
Schlussfolgerung:
Die Studie zeigt, dass der Anteil der mit Antipsychotika behandelten Demenzpatienten sehr hoch ist. Weitere Studien, einschließlich qualitativer Untersuchungen, sind nötig, um die Gründe für dieses Verschreibungsverhalten zu verstehen und zu erklären.
My thesis focused on the predictions of the activation-based model of Lewis and Vasishth (2005) to investigate the evidence for the use of the memory system in the formation of non-local dependencies in sentence comprehension.
The activation-based model, which follows the Adaptive Control of Thought-Rational framework (ACT-R; Anderson et al., 2004), has been used to explain locality effects and similarity-based interference by assuming that dependencies are resolved by a cue-based retrieval mechanism, and that the retrieval mechanism is affected by decay and interference.
Both locality effects and (inhibitory) similarity-based interference cause increased difficulty (e.g., longer reading times) at the site of the dependency completion where a retrieval is assumed: (I) Locality effects are attributed to the increased difficulty in the retrieval of a dependent when the distance from its retrieval site is increased. (II) Similarity-based interference is attributed to the retrieval being affected by the presence of items which have similar features as the dependent that needs to be retrieved.
In this dissertation, I investigated some findings problematic to the activation-based model, namely, facilitation where locality effects are expected (e.g., Levy, 2008), and the lack of similarity-based interference from the number feature in grammatical sentences (e.g., Wagers et al., 2009). In addition, I used individual differences in working memory capacity and reading fluency as a way to validate the theories investigated (Underwood, 1975), and computational modeling to achieve a more precise account of the phenomena.
Regarding locality effects, by using self-paced reading and eye-tracking-while reading methods with Spanish and German data, this dissertation yielded two main findings: (I) Locality effects seem to be modulated by working memory capacity, with high-capacity participants showing expectation-driven facilitation. (II) Once expectations and other potential confounds are controlled using baselines, with increased distance, high-capacity readers can show a slow-down (i.e., locality effects) and low-capacity readers can show a speedup. While the locality effects are compatible with the activation-based model, simulations show that the speedup of low-capacity readers can only be accounted for by changing some of the assumptions of the activation-based model.
Regarding similarity-based interference, two relatively high-powered self-paced reading experiments in German using grammatical sentences yielded a slowdown at the verb as predicted by the activation-based model. This provides evidence in favor of dependency creation via cue-based retrieval, and in contrast with the view that cue-based retrieval is a reanalysis mechanism (Wagers et al., 2009).
Finally, the same experimental results that showed inhibitory interference from the number feature are used for a finer grain evaluation of the retrieval process. Besides Lewis and Vasishth’s (2005) activation-based model, also McElree’s (2000) direct-access model can account for inhibitory interference. These two models assume a cue-based retrieval mechanism to build dependencies, but they are based on different assumptions. I present a computational evaluation of the predictions of these two theories of retrieval. The models were compared by implementing them in a Bayesian hierarchical framework. The evaluation of the models reveals that some aspects of the data fit better under the direct access model than under the activation-based model. However, a simple extension of the activation-based model provides a comparable fit to the direct access model. This serves as a proof of concept showing potential ways to improve the original activation-based model.
In conclusion, this thesis adds to the body of evidence that argues for the use of the general memory system in dependency resolution, and in particular for a cue-based retrieval mechanism. However, it also shows that some of the default assumptions inherited from ACT-R in the activation-based model need to be revised.
In gewaltsamen Auseinandersetzungen mit nicht staatlichen Akteuren setzen Staaten zunehmend bewaffnete unbemannte Flugsysteme, sogenannte Drohnen, ein. Oft verläuft der Einsatz über Staatsgrenzen hinweg und ist von einer starken Asymmetrie zwischen der staatlichen und der nicht staatlichen Konfliktpartei geprägt. Der Verfasser untersucht derartige Einsätze vor dem Hintergrund des Rechts des nicht internationalen bewaffneten Konflikts. Er setzt sich kritisch mit den Problemen auseinander, die die Verwendung von Drohnen in solchen Auseinandersetzungen mit sich bringt: Inwieweit droht die Ausweitung des geografischen Anwendungsbereichs kriegsrechtlicher Standards zulasten der Menschenrechte, welche Modelle zur räumlichen Einhegung des Kriegsrechts sind denkbar? Dürfen zivile Opfer damit gerechtfertigt werden, dass unbemannte Systeme das Risiko für deren Verwender reduzieren? Wie beeinflusst die vermeintliche Präzision von Drohnen die Einhaltung der Pflicht zu Vorsichtsmaßnahmen? Bewertet werden auch spezifische Einsatztaktiken, etwa sogenannte „signature strikes“ oder die Ortung einer Zielperson mithilfe von Mobilfunkdaten.
Der gedachte Krieg
(2016)
Wie ein Damoklesschwert schwebte während des Ost-West-Konflikts die Möglichkeit einer offenen militärischen Auseinandersetzung mit den Streitkräften des Warschauer Pakts über dem "Frontstaat" Bundesrepublik Deutschland. Angesichts dieser permanenten Bedrohung wurde die Bundeswehrführung ständig mit der Frage nach dem Kriegsbild konfrontiert. Florian Reichenberger geht der Entwicklung von Kriegsbildern in der militärischen Führung der Bundeswehr im Zeitalter des Ost-West-Konflikts auf den Grund. Dabei werden Perzeptionsverläufe von einem möglichen "Dritten Weltkrieg" in den vielfältigen Wechselbeziehungen zu Politik, Gesellschaft, Wirtschaft, Wissenschaft und Technik beleuchtet. In einem interdisziplinären, epochenübergreifenden und zwischen den Teilstreitkräften vergleichenden Ansatz fragt der Autor nach Einheitlichkeit, Kontinuität und Wandel sowie Interessenleitung in den Denkmustern der westdeutschen Militärelite. Die Theorie zum Phänomen Kriegsbild bildet dabei den methodischen Rahmen.
Der Gewinnabführungsvertrag hat wegen der körperschaftsteuerrechtlichen Organschaft (§§ 14 ff. KStG) eine hohe praktische Relevanz und ist fortwährend Inhalt rechtswissenschaftlicher Abhandlungen und höchstrichterlicher Entscheidungen. Er durchbricht das System der Finanzverfassung der abhängigen Gesellschaft, denn durch ihn verpflichtet sich die gewinnabführende Gesellschaft, ihren ganzen Gewinn an ein anderes Unternehmen abzuführen.
Für die Aktiengesellschaft und die Kommanditgesellschaft auf Aktien ist der Gewinnabführungsvertrag gesetzlich geregelt und damit Gegenstand vielfältiger Kommentarliteratur. Hier existieren nur sehr wenige offene Fragen. Indes ist eine gesetzliche Regelung für die GmbH bislang unterblieben. Eine ganz entscheidende Rolle spielen seine gesellschafts- und gläubigerschützenden Normen. Insbesondere sieht das AktG die Verlustausgleichspflicht nach § 302 Abs. 1 AktG vor. Sie verpflichtet das gewinnempfangende Unternehmen, jeden während der Vertragsdauer sonst entstandenen Jahresfehlbetrag der verpflichteten Gesellschaft auszugleichen.
Das Werk „Der Gewinnabführungsvertrag in der GmbH“ beschäftigt sich mit dem isolierten Gewinnabführungsvertrag mit einer GmbH als verpflichteter Gesellschaft. Es geht schwerpunktmäßig der Frage nach, ob die aktienrechtliche Verlustausgleichspflicht auch für den Gewinnabführungsvertrag in der GmbH gelten muss. Dabei werden im Einzelnen verschiedene Begründungsansätze für die analoge Anwendung von § 302 AktG auf die GmbH überprüft, die Grundlagen des Gewinnabführungsvertrages vermittelt, dessen Wirkungen auf die Parteien, dessen Rechtsnatur und das Normengefüge sowie dessen Voraussetzungen in der GmbH. Zudem werden historische Zusammenhänge aufgezeigt.
Bei der Erörterung der zentralen Frage, ob die Verlustausgleichspflicht auch für den Gewinnabführungsvertrag in der GmbH gelten muss, geht die Arbeit auf die jeweiligen Gemeinsamkeiten und Unterschiede des Kapitalschutzes im Aktien- und GmbH-Recht ein, klärt die Ursachen für das Unbehagen über den Gewinnabführungsvertrag und findet entsprechende Lösungen für den Schutz der abhängigen Gesellschaft.
Der junge Habermas
(2016)
Roman Yos' Untersuchung über die Ursprünge eines der einflussreichsten Werke der jüngeren Geistesgeschichte zeigt auf originelle Weise, wie Jürgen Habermas seine bereits in jungen Jahren ausgeprägten philosophisch-politischen Denkmotive allmählich in die Bahnen eines tragfähigen Systems überführte. Diese Entwicklung lässt sich als ein Lernprozess begreifen, in dessen Verlauf konträre intellektuelle Einflüsse aufeinandertrafen und der aufwändigen Vermittlung bedurften. Yos rekonstruiert die spannungsreiche Entstehung von Habermas‘ Denken aus dem Zusammenhang frühester Schriften und gibt zugleich einen Einblick in deren zeit- und ideengeschichtliche Hintergründe.
Thema dieses Buches ist die Umsatzsteuerorganschaft, die als ein Relikt der Bruttoallphasenumsatzsteuer heute nur der Verwaltungsvereinfachung dienen soll. Die steigende Zahl an höchstrichterlichen Entscheidungen zu ihrer Anwendung deutet jedoch schon an, dass sie mehr als nur eine Verwaltungsvereinfachung für die Betroffenen bereithält. Der Autor analysiert anhand der systematischen Stellung und der historischen Entwicklung die heutige Anwendung der Umsatzsteuerorganschaft im nationalen Recht. Ziel der Analyse ist, die einzelnen Merkmale mit einem konsistenten Definitionsinhalt zu versehen, auch vor dem Hintergrund der MwStSystRL. Hieraus lassen sich schließlich ihre Bedeutungen ableiten, insbesondere auch im Rahmen eines Insolvenzverfahrens.
Denise Klinge untersucht anhand von 25 narrativen Interviews, die mittels der qualitativen Inhaltsanalyse und der dokumentarischen Methode ausgewertet wurden, wie bei der Sekundarschulwahlentscheidung der Eltern für ihre Kinder habituelles und rationales Wählen nach Wert-Erwartungstheorien zusammenhängen. Die Autorin konzentriert sich damit auf die elterliche Übergangsentscheidung als eine Einflussgröße sozialer Bildungsungleichheit. Mit der empirischen Integration beider Theoriestränge (Habitustheorie und Wert-Erwartungstheorien), zeigt Denise Klinge zum einen mögliche Erweiterungen der Mechanismen primärer und sekundärer Herkunftseffekte und Komponenten der Wert-Erwartungstheorien auf. Zum anderen konnten unterschiedliche habituelle Entscheidungstypen rekonstruiert werden, welche tiefere Einblicke in das Entscheidungsverhalten geben.
Begriffe wie „Türken“, „Menschen mit türkischem Migrationshintergrund“, etc., die in vielen Bereichen des Lebens verwendet werden, sind Ausdruck der vorliegenden Differenzordnungen und Machtstrukturen und können diskriminierend wirken. Das ist z.B. dann der Fall, wenn bestimmte Begriffe verwendet werden, obwohl eine Kontextrelevanz nicht unbedingt vorliegt. Einige ethnische Bezeichnungen werden dabei häufiger verwendet als andere, trotz vergleichbarer Kontextrelevanz: „türkische/arabische Kinder“ aber nicht „englische/spanische Kinder“ (Wiese 2012), „Deutsch-Türke“ Mesut Özil aber nicht „Deutsch-Tunesier“ Sami Khedira. Erst die Bezeichnungen schaffen hier die Subjekte. Die besondere Auszeichnung macht es in der Folge möglich, dass ihnen Eigenschaften zugeschrieben werden (do Mar Castro Varela/Dhawan 2004). Aus Studien geht hervor, dass Ethnisierung mit Unterschichtung (Hormel 2007) in Verbindung gebracht wird und Begriffe wie „Migrant“ mit negativen Eigenschaften (Scarvagliere/Zech 2013). Durch die Auszeichnung von Abweichungen von dem von der Mehrheit definierten unmarkierten Normalfall wird eine Differenzordnung (Mecheril/Melter 2012) hergestellt, die das vermeintliche Anders-Sein ins Zentrum der Aufmerksamkeit rückt. Folgen sind Abwertung bestimmter (Erst-)Sprachen, Unterwerfung durch Beschreibungspraxen und Restriktionen auf dem Feld der Repräsentation (Broden/Mecheril 2007).
Ausgehend von diesen Überlegungen wird in der Arbeit „Ethnizität“ diskutiert, worauf viele dieser Bezeichnungen rekurrieren. Barth (1969, 1994) stellt fest, dass Ethnizität der Abgrenzung dient und Zugehörigkeit zu ethnische Gruppen durch kategoriale Selbst- und Fremdzuschreibungen bestimmt wird. Brubaker (2004) folgert daher, dass „Gruppen“ nur in Form von Vorstellungen existieren, die Individuen davon haben und diese Subjektivität zu unterschiedlichen Konstruktionen ethnischer Identität führt. Dementsprechend können auch „multiple ethnische Identitäten“ (Keupp 2002) und „Hybriditäten“ (Foroutan 2013) das Ergebnis der individuellen Konstruktion sein, ohne dass diese Formen gemeinhin akzeptierte Bezeichnungen darstellen.
Um die individuelle Entstehung ethnischer Identität nachvollziehen zu können, werden in der Arbeit Spracherwerbsgeschichten analysiert, da verschiedene Studien nahelegen, dass das Sprechen einer Sprache in engem Zusammenhang zur Ethnizität steht. Ohm (2008) zeigt, dass Zweitsprachenerwerb mit Identitätsprozessen in einem wechselseitigen Bedingungsverhältnis steht. Giles/Bourhis/Taylor (1977: 326) zeigen anhand von Untersuchungen in mehrsprachigen Gebieten wie Quebec und Wales, dass Sprache enger mit ethnischer Identität verbunden ist als Nationalität oder „Kultur“. Rosenberg (2015) führt am Beispiel der ehemaligen UdSSR auf, dass das Sprechen einer Sprache gleichbedeutend mit dem Zugehörigkeit zu einer ethnischen „Gruppe“ war. Sprache greift auch als Ausschlusskriterium: Nur wer eine Sprache gut spricht, darf die damit verbundene Identität in Anspruch nehmen (Schroeder/Dollnick, 2013: 104).
Mithilfe der Methode des narrativen Interviews können Spracherwerbsgeschichten produziert, und individuelle kognitive Perspektiven und gesellschaftliche Prozesse aufgedeckt werden. In der Analyse können vier Wege der Entstehung ethnischer Identität unterschieden werden: I. Ethnizität als primäre und dauerhafte Dimension, II. Multiple ethnische Identität, III. Unmarkierte ethnische Identität, IV. Selbstbestimmtheit. So kommt die Untersuchung zu dem Schluss, dass Ethnische Identität bei „Menschen mit türkischem Migrationshintergrund“ durch individuelle Erfahrungen entsteht, sich verändern und Mehrfachzugehörigkeiten oder Hybriditäten zulassen kann. Dieses Ergebnis widerspricht dem alltäglichen Gebrauch bestimmter Begriffe und stellt damit gängige Bezeichnungsweisen und Differenzordnungen in Frage.
Das Buch befasst sich mit der Frage, ob und wie international tätige Unternehmen europäische Auslandsverluste bei der inländischen Besteuerung geltend machen können. Im Mittelpunkt der rechtlichen Auseinandersetzung steht die Rechtsprechungsentwicklung des EuGH seit der Rechtssache Marks & Spencer. Mit zunehmender Anzahl an Gerichtsentscheidungen wurde die grenzüberschreitende Verlustverrechnung im Rahmen der 'finalen Verluste' Gegenstand intensiver und kontroverser Rechtsdiskussion. Die vorliegende Arbeit nimmt eine kritische Bestandsaufnahme des nationalen Steuerrechts vor. Dabei untersucht der Autor, welche Folgen mit der EuGH-Rechtsprechung einhergehen und welche Lösungsansätze einen gangbaren Weg ebnen könnten, um dem Europäischen Gedanken eines gemeinsamen Binnenmarkts gerecht zu werden.
Gerät eine GmbH in eine finanzielle Krise, zeigen sich die Nachteile der beschränkten Haftung: Der GmbH wird ein Bankkredit oftmals versagt. Nicht selten besteht die einzige Möglichkeit darin, der Gesellschaft Kapital durch Gesellschafterdarlehen zuzuführen. Fordern die Gesellschafter später ihre Darlehen zurück und befindet sich die Gesellschaft noch in der Krise, ist die Rückzahlung für den Geschäftsführer mit erheblichen zivilrechtlichen und strafrechtlichen Risiken verbunden. Der Autor beleuchtet in der Publikation zum einen die zivilrechtliche Haftungsproblematik, insbesondere in Bezug auf § 64 GmbHG. Das Hauptaugenmerk legt der Autor auf die strafrechtlichen Risiken und untersucht die Frage, unter welchen Voraussetzungen sich der Geschäftsführer bei der Rückzahlung von Gesellschafterdarlehen wegen Untreue gemäß § 266 StGB strafbar macht. Dabei wird unter anderem untersucht, ob § 64 GmbH als pflichtwidrigkeitsbegründende Norm im Rahmen des § 266 StGB herangezogen werden kann. Vertieft geht der Autor auch der Frage nach, ob die Strafbarkeit des Geschäftsführers wegen eines Einverständnisses der Gesellschafter entfallen kann. Alle untersuchenden Fragen werden dabei stets an dem Präzisionsgebot gemessen, das das Bundesverfassungsgericht im Hinblick auf die Verfassungsmäßigkeit des Untreuetatbestandes entwickelt hat.
The author examines the cultural identity development of Oromo-Americans in Minnesota, an ethnic group originally located within the national borders of Ethiopia. Earlier studies on language and cultural identity have shown that the degree of ethnic orientation of minorities commonly decreases from generation to generation. Yet oppression and a visible minority status were identified as factors delaying the process of de-ethnicization. Given that Oromos fled persecution in Ethiopia and are confronted with the ramifications of a visible minority status in the U.S., it can be expected that they have retained strong ties to their ethnic culture. This study, however, came to a more complex and theory-building result.
Die sozialwissenschaftliche Dissertation nimmt den derzeitigen DIY-Trend, konkret den Handarbeitstrend, in den Fokus. Welche individuellen Gründe und gesellschaftliche Entwicklungen bewegen die Menschen, wieder gemeinsam und/oder allein zu nähen und zu stricken, alte Dinge aufzuwerten oder anders zu nutzen bzw. einfach kreativ zu sein? Ist es der Wunsch nach dem Besonderen, die Abgrenzung von Anderen, der wiedererwachte Sinn für Gemeinschaft oder die Freude an der praktischen Arbeit? Und nicht zuletzt, gibt es eine Verbindung von Handarbeit zu einer nachhaltig orientierten Lebensweise? Ist Handarbeit eine soziale Innovation?
Die Untersuchung basiert auf dem bereichsspezifischen Lebensstilkonzept, welches verschiedene gesellschaftliche Ebenen, die individuelle, gemeinschaftliche und gesellschaftliche Ebene, einschließt. Nach einer historischen Betrachtung der Handarbeit und einer ebenen-spezifischen Literaturschau einschließlich der Auswertung von Experteninterviews zum Thema Handarbeit erfolgt im empirischen Teil die Inhaltsanalyse von zwölf leitfadengestützten problemzentrierten Interviews mit Personen, die in ihrer Freizeit handarbeiten.
Die Untersuchung bestätigt die forschungsleitenden Annahmen. Es wird deutlich, dass bei der Herausbildung der Affinität zur Handarbeit alle drei gesellschaftlichen Ebenen relevant sind: Individuelle Vorerfahrungen und Motivationen spielen ebenso eine Rolle wie die Gemeinschaft und Vernetzung mit Anderen.Gesellschaftlich betrachtet zeigt die Arbeit, dass die historischen Brüche in der Bedeutung der Handarbeit für deren heutigen Stellenwert relevant sind. Handarbeit - und im weiteren Sinne DIY - wird als soziale Innovation wahrgenommen und kann bewusstseinsbildend hinsichtlich nachhaltig orientierter Lebensweisen wirken.
This book provides for an extensive legal analysis of the international drug control system in light of the growing challenges and criticism that this system faces. In the current debate on global drug policy, the central pillars of the international drug control system – the UN Drug Conventions as well as its institutions – are portrayed as outdated, suppressive and seen as an obstacle to necessary changes. The book’s objective is to provide an in-depth and positivist insight into drug control’s present legal framework and thus provide for a better understanding of the normative assumptions upon which drug control is currently based. This is attained by clarifying the objectives of the international drug control system and the premises by which these objectives are to be achieved.
The objective of the current global framework of international drug control is the limitation of drugs to medical and scientific purposes. The meaning of this objective and its concrete implications for States’ parties as well as its problems from the perspective of other regimes of international law, most notably international human rights law, are extensively analysed. Additionally, the book focuses on how the international drug control system attempts to reach the objective of confining drugs to medical and scientific purposes, i.e. by setting up a universal system that exercises a rigid control on drug supply. The consequences of this heavy focus on the reduction of drug supply are outlined, and the book concludes by making suggestions on how the international drug control system could be reformed in the near future in order to better meet the existing challenges.
The analysis occurs from a general international law perspective. It aims to map the international drug control system within a wider context of international law and to understand whether the problems that the international drug control system faces are exemplary for the difficulties that institutionalized systems of global scope face in the twenty-first century.
Ecosystems' exposure to climate change - Modeling as support for nature conservation management
(2016)
Effects of plant community diversity and composition on fungal pathogens in experimental grasslands
(2016)
Was und von wem wurde mit wissenschaftlichem Anspruch während des ersten Drittels des 20. Jahrhunderts über Antisemitismus in Deutschland gearbeitet und geschrieben? Welche Ansätze bot die frühe Antisemitismusforschung? Das sind die Leitfragen dieser Studie, die ein Stück Kulturund Wissenschaftsgeschichte zugleich bietet. Darüber hinaus schlägt das Buch einen Bogen zur Geschichte des Abwehrkampfs gegen den Antisemitismus bis 1933. Das Fazit: Bereits in der Weimarer Republik existierte ein tiefergehendes Wissen über den Antisemitismus, das jedoch für den Abwehrkampf gegen antisemitische und völkische Bewegungen wenig Perspektiven bieten konnte.
Die Danziger Verwaltungspraxis des frühen 19. Jahrhunderts im Nexus von Reform, Restauration, Emanzipation und antijüdischen Vorurteilen.
Michał Szulc analysiert die Umsetzung der staatlichen Judenpolitik in der preußischen Provinz am Beispiel Danzigs. Dabei zeigt er die Emanzipation der Juden als Kampfplatz von Interessengruppen und individuellen Akteuren. Der Autor untersucht sowohl die Diskussionen vor Ort als auch in machtpolitischen Zentren wie Berlin und Paris.
Deutlich wird dabei die Diskrepanz zwischen gesetzlicher Norm und Alltagspraxis, zwischen politischem Programm und dessen tatsächlicher Wirkung. In diesem politisch-rechtlichen Prozess setzten sich Staat und Stadt konfrontativ über die Lage der Juden in Danzig auseinander. Akteure wie Napoleon I., König Friedrich Wilhelm III. oder Staatskanzler Karl August von Hardenberg versuchten mit unterschiedlichem Erfolg das Ausmaß der Emanzipation ebenso so zu prägen, wie es 'einfache Leute', etwa der Rabbinatskandidat Bram oder der Stadtverordnete Zernecke, taten. Die Rollen der Protagonisten waren dabei variabel: Einige Staatsbeamte vertraten die Position der Stadt, manche Bürger die des Staates. Zudem entwickelte sich im Laufe der Debatte jenseits rechtlicher Normen eine lokale Praxis, die Juden mehr Raum in der Gesellschaft gewährte.
Ephraim Carlebach
(2016)
Nachdem der Sicherheitsdienst der SS 1934 zum einzigen politischen Nachrichtendienst der NSDAP aufgestiegen war, entwickelten seine führenden Mitarbeiter ein ehrgeiziges Konzept zur Erfassung, Bewertung und praktischen Anwendung von Informationen über die Gegner des NS-Staates. Die Gegnerforscher im Amt II des Sicherheitshauptamtes versuchten so, politischen Einfluss auf die Partei- und Staatsführung des „Dritten Reiches“ zu nehmen. Ihre Analysen dienten auch zur Schulung und als Material für die exekutiv arbeitende Gestapo, lieferten also die materielle und ideologische Grundlage zur Verfolgung des „Gegners“ – Freimaurer, Juden, die „politischen Kirchen“, „Marxisten“ und Liberale. Unter den Gegnerforschern entstand ein gemeinsamer Denkstil. Daraus entwickelten sie Strategien zur Erkennung und Bekämpfung der Gegnergruppen und professionalisierten sie Mitte der 1930er-Jahre. Viele von ihnen wandten in den ersten Einsatzkommandos in Österreich, der Tschechoslowakei oder Polen, in den Stäben der Befehlshaber der Sicherheitspolizei und als „Judenberater“ genau die Methoden zur Gegnerbekämpfung an, die sie im Amt II des Sicherheitshauptamtes mitentwickelt hatten.
Europa im Rathaus
(2016)
Seit den 90er Jahren gehen von der europäischen Integration zunehmend Rückwirkungen auf die subnationalen Ebenen aus. In der Folge kann eine Vervielfachung der kommunalen EU-bezogenen Tätigkeiten sowie die Einrichtung spezieller Koordinierungsstellen beobachtet werden. Aufbauend auf einer Befragung unter allen deutschen Großstädten und anhand von Experteninterviews in Bremerhaven, Dresden und Bochum widmet sich dieses Buch der Ausgestaltung der kommunalen EU-Arbeit in der Praxis. Im Mittelpunkt der Untersuchung steht die Frage nach dem Mehrwert einer zentralen EU-Stelle in der Stadtverwaltung.
Zwecks Erklärung von komplexen Finanzierungsentscheidungen multinationaler Unternehmen mit besonderem Bezug zum Euroraum werden bisherige Ansätze im Bereich „Finance“ erweitert und empirisch belegt. Die Analyse beschränkt sich hier nicht ausschließlich auf die Kapitalstruktur (Eigen- und Fremdkapital), sondern ebenfalls auf die strukturellen Verhältnisse von Innen- und Außenfinanzierung. Damit wird einerseits der Forschungsstrang „Corporate Finance“ fortgeführt andererseits mit einem Cashflow basierten Ansatz erweitert. In Anlehnung an das theoretische Modell zur optimalen Finanzierungsstruktur (Innen- und Außenfinanzierung) werden auf eigener Datenbasis periodenspezifische Entwicklungen der Unternehmensfinanzierung im internationalen Kontext analysiert.
Die besonderen Auswirkungen der globalen Finanzkrise auf börsennotierte Unternehmen aus Deutschland, Frankreich und Italien werden hier mit einem neuen Ansatz empirisch untersucht. Dabei zeigt sich, dass die Folgen der globalen Finanzkrise für die Kapitalbeschaffung multinationaler Unternehmen, zunächst allein auf Basis der Kapitalstruktur scheinbar geringere Veränderungen verursachten, unter Berücksichtigung der Finanzierungsstruktur jedoch weitreichende Dynamiken zum Vorschein kamen. Demnach unterliegen die Finanzierungsvolumina und die entsprechenden Finanzierungsquoten im Krisenverlauf enormen Schwankungen, die vielschichtige Herausforderungen für das internationale Finanzmanagement verdeutlichen.
In the first part of my work I have investigated the ageing properties of the first passage time distributions in a one-dimensional subdiffusive continuous time random walk with power law distributed waiting times of the form $\psi(\tau) \sim \tau^{-1-\alpha}$ with $0<\alpha<1$ and $1<\alpha<2$. The age or ageing time $t_a$ is the time span from the start of the stochastic process to the start of the observation of this process (at $t=0$). I have calculated the results for a single target and two targets, also including the biased case, where the walker is driven towards the boundary by a constant force. I have furthermore refined the previously derived results for the non-ageing case and investigated the changes that occur when the walk is performed in a discrete quenched energy landscape, where the waiting times are fixed for every site. The results include the exact Laplace space densities and infinite (converging) series as exact results in the time space. The main results are the dominating long time power law behavior regimes, which depend on the ageing time. For the case of unbiased subdiffusion ($\alpha < 1$) in the presence of one target, I find three different dominant terms for ranges of $t$ separated by $t_a$ and another crossover time $t^{\star}$, which depends on $t_a$ as well as on the anomalous exponent $\alpha$ and the anomalous diffusion coefficient $K_{\alpha}$. In all three regimes ($t \ll t_a$, $t_a \ll t \ll t^{\star}$, $t \gg t^{\star}$) one finds power law decay with exponents depending on $\alpha$. The middle regime only exists for $t_a \ll t^{\star}$. The dominant terms in the first two regimes (ageing regimes) come from the probability distribution of the forward waiting time, the time one has to wait for the stochastic process to make the first step during the observation. When the observation time is larger than the second crossover time $t^{\star}$, the first passage time density does not show ageing and the non-ageing first passage time dominates. The power law exponents in the respective regimes are $-\alpha$ for strong ageing, $-1-\alpha$ in the intermediate regime, and $-1-\alpha/2$ in the final non-ageing regime. A similar split into three regimes can be found for $1<\alpha<2$, only with a different second crossover time $t^*$. In this regime the diffusion is normal but also age-dependent. For the diffusion in quenched energy landscapes one cannot detect ageing. The first passage time density shows a quenched power law $^\sim t^{-(1+2\alpha)/(1+\alpha)}$. For diffusion between two target sites and the biased diffusion towards a target only two scaling regimes emerge, separated by the ageing time. In the ageing case $t \ll t_a$ the forward waiting time is again dominant with power law exponent $-\alpha$, while the non-ageing power law $-1-\alpha$ is found for all times $t \gg t_a$. An intermediate regime does not exist. The bias and the confinement have similar effects on the first passage time density. For quenched diffusion, the biased case is interesting, as the bias reduces correlations due to revisiting of the same waiting time. As a result, CTRW like behavior is observed, including ageing. Extensive computer simulations support my findings.
The second part of my research was done on the subject of ageing Scher-Montroll transport, which is in parts closely related to the first passage densities. It explains the electrical current in an amorphous material. I have investigated the effect of the width of a given initial distribution of charge carriers on the transport coefficients as well as the ageing effect on the emerging power law regimes and a constant initial regime. While a spread out initial distribution has only little impact on the Scher-Montroll current, ageing alters the behavior drastically. Instead of the two classical power laws one finds four current regimes, up to three of which can appear in a single experiment. The dominant power laws differ for $t \ll t_a, t_c$, $t_a \ll t \ll t_c$, $t_c \ll t \ll t_a$, and $t \gg t_a,t_c$. Here, $t_c$ is the crossover time of the non-aged Scher-Montroll current. For strongly aged systems one can observe a constant current in the first regime while the others are dominated by decaying power laws with exponents $\alpha -1$, $-\alpha$, and $-1-\alpha$. The ageing regimes are the 1st and 3rd one, while the classical regimes are the 2nd and the 4th. I have verified the theory using numerical integration of the exact integrals and applied the new results to experimental data.
In the third part I considered a single file of subdiffusing particles in an energy landscape. Every occupied site of the landscape acts as a boundary, from which a particle is immediately reflected to its previous site, if it tries to jump there. I have analysed the effects single-file diffusion a quenched landscape compared to an annealed landscape and I have related these results to the number of steps and related quantities. The diffusion changes from ultraslow logarithmic diffusion in the annealed or CTRW case to subdiffusion with an anomalous exponent $\alpha/(1+\alpha)$ in the quenched landscape. The behavior is caused by the forward waiting time, which changes drastically from the quenched to the annealed case. Single-file effects in the quenched landscape are even more complicated to consider in the ensemble average, since the diffusion in individual landscapes shows extremely diverse behavior. Extensive simulations support my theoretical arguments, which consider mainly the long time evolution of the mean square displacement of a bulk particle.
Food and fear
(2016)
Fragmente der Unruhe
(2016)
Die Kurzprosasammlung "Bestie" (1917) von Federigo Tozzi ist von der Forschung als Meisterwerk der europäischen Moderne in ihrem literarischen Potential bisher verkannt worden. Ihrer vielbeschworenen Rätselhaftigkeit geht Sophie Ratschow nun erstmals seit Erscheinen umfassend und systematisch auf den Grund. Der Band stellt damit nicht nur die erste Ganzschrift zu "Bestie", sondern darüber hinaus die erste Monographie in deutscher Sprache zu Federigo Tozzi dar. Der simulationsästhetische Analyseansatz führt unter Berücksichtigung philosophischer Konzepte von Nietzsche, Derrida u.a. sowie durch die neuartige Auswahl intertextueller Bezüge zur Lyrik Baudelaires und zum "Buch der Unruhe" von Fernando Pessoa zu vollkommen neuen Erkenntnissen über die Funktions- und Wirkungsmechanismen dieser prismenhaft angelegten, geheimnisvollen Fragmente der Unruhe.
From dark to light
(2016)
Selbstverständnis und Image der Unternehmensberatung, das Bewerbern, Mitarbeitern und Kunden gleichermaßen Wissensvorsprung durch Ballung der besten Köpfe verspricht, scheinen sowohl für den Berater als auch den Kunden einen Erfolgsfaktor einzunehmen. Die Karriere des Unternehmensberaters wird im Vergleich zu anderen Branchen durch eine starke Formalisierung anhand von Kompetenzen und Entwicklungspfaden begleitet. Talentgewinnung und -entwicklung sind dabei Kernaufgaben des Personalmanagements, das gerade aufgrund seiner kompetenzbasierten Instrumente und formalistischen Strukturen als Erfolgsfaktor gilt. Die Analyse der Autorin setzt beim Personalmanagement der Unternehmensberatung an. Auffällig erscheinen dabei zunächst ähnliche Strukturen und Instrumente zur Talentidentifikation und -entwicklung, die für eine gesamte Branche charakteristisch sind. Speziell für Professional Service Firms ist der Mitarbeiter die entscheidende ökonomische Größe in der Leistungserbringung. Der Kunde beurteilt die Unternehmensleistung im Zusammenspiel mit seinem Kontakt zum Mitarbeiter, der maßgeblich für die Leistungserbringung und Qualitätssicherung verantwortlich ist. Der Analysefokus liegt deshalb im Personalmanagement von Unternehmensberatungen als Teil der Professional Service Firms und wird vor dem Hintergrund systemtheoretischer Überlegungen beleuchtet. Eckpfeiler des Systems zeigen sich insbesondere in Form von branchenüblichen Rekrutierungsstrategien, der formalistischen Leistungsbeurteilung, dem vergleichsweise steilen Karriereverlauf sowie anhand überdurchschnittlicher Gehälter. Hat die Unternehmensberatung die Qualifizierung und Entwicklung ihrer Mitarbeiter zum Erfolgsfaktor gemacht? Die Autorin analysiert, ob das Personalmanagement und seine Verfahren berechtigterweise als Erfolgsfaktor einer Branche gelten, welche Faktoren den wirtschaftlichen Erfolg der Branche beeinflussen und welche Grenzen die Nutzenanalyse in Bezug auf die Beratungsleistung erfährt. ?
In Gelehrte – Republik – Gelehrtenrepublik untersucht Marc Banditt die Eigenheiten aufklärerischer Tendenzen der Stadt Danzig. Deren Nukleus bildete die zur Jahreswende 1742/43 gegründete Naturforschende Gesellschaft, einer der am längsten existierenden privaten Zusammenschlüsse auf diesem Gebiet. Der strukturelle Wandel dieser Sozietät in den ersten knapp 80 Jahren ihres Bestehens wird dabei als die Summe einer Vielzahl von ineinandergreifenden Entwicklungssträngen verstanden, die die voranschreitende gesellschaftliche Durchdringung der Aufklärungsideen und -inhalte im Laufe des 18. Jahrhunderts kennzeichneten. Trotz der Kräfteverschiebungen in Nordosteuropa, die in Gestalt der Teilungen Polen-Litauens der autonomen Stellung der Hansestadt im Jahr 1793 ein Ende bereiteten, offenbart sich, dass die Geschichte des Danziger Naturforscherzirkels mehr Kontinuitäten als Brüche aufweist. Sowohl auf lokaler als auch auf transregionaler Ebene generierte sich die Vereinigung als eine elementare Schnittstelle zwischenmenschlicher Beziehungen, die von familiären Verflechtungen, weitreichenden Gelehrtennetzwerken und patronalen Abhängigkeitsverhältnissen geprägt waren. Auf diese Weise verkörperte die Naturforschende Gesellschaft zum einen den Aufklärungsprozess innerhalb der Stadt Danzig und zum anderen deren Stellenwert als ein wissenschaftlicher Standort im damaligen Europa.
Generation im Übergang
(2016)
In the debate on how to govern sustainable development, a central question concerns the interaction between knowledge about sustainability and policy developments. The discourse on what constitutes sustainable development conflict on some of the most basic issues, including the proper definitions, instruments and indicators of what should be ‘developed’ or ‘sustained’. Whereas earlier research on the role of (scientific) knowledge in policy adopted a rationalist-positivist view of knowledge as the basis for ‘evidence-based policy making’, recent literature on knowledge creation and transfer processes has instead pointed towards aspects of knowledge-policy ‘co-production’ (Jasanoff 2004). It is highlighted that knowledge utilisation is not just a matter of the quality of the knowledge as such, but a question of which knowledge fits with the institutional context and dominant power structures. Just as knowledge supports and justifies certain policy, policy can produce and stabilise certain knowledge. Moreover, rather than viewing knowledge-policy interaction as a linear and uni-directional model, this conceptualization is based on an assumption of the policy process as being more anarchic and unpredictable, something Cohen, March and Olsen (1972) has famously termed the ‘garbage-can model’.
The present dissertation focuses on the interplay between knowledge and policy in sustainability governance. It takes stock with the practice of ‘Management by Objectives and Results’ (MBOR: Lundqvist 2004) whereby policy actors define sustainable development goals (based on certain knowledge) and are expected to let these definitions guide policy developments as well as evaluate whether sustainability improves or not. As such a knowledge-policy instrument, Sustainability Indicators (SI:s) help both (subjectively) construct ‘social meaning’ about sustainability and (objectively) influence policy and measure its success. The different articles in this cumulative dissertation analyse the development, implementation and policy support (personal and institutional) of Sustainability Indicators as an instrument for MBOR in a variety of settings. More specifically, the articles centre on the question of how sustainability definitions and measurement tools on the one hand (knowledge) and policy instruments and political power structures on the other, are co-produced.
A first article examines the normative foundations of popular international SI:s and country rankings. Combining theoretical (constructivist) analysis with factor analysis, it analyses how the input variable structure of SI:s are related to different sustainability paradigms, producing a different output in terms of which countries (developed versus developing) are most highly ranked. Such a theoretical input-output analysis points towards a potential problem of SI:s becoming a sort of ‘circular argumentation constructs’. The article thus, highlights on a quantitative basis what others have noted qualitatively – that different definitions and interpretations of sustainability influence indicator output to the point of contradiction. The normative aspects of SI:s does thereby not merely concern the question of which indicators to use for what purposes, but also the more fundamental question of how normative and political bias are intrinsically a part of the measurement instrument as such. The study argues that, although no indicator can be expected to tell the sustainability ‘truth-out-there’, a theoretical localization of indicators – and of the input variable structure – may help facilitate interpretation of SI output and the choice of which indicators to use for what (policy or academic) purpose.
A second article examines the co-production of knowledge and policy in German sustainability governance. It focuses on the German sustainability strategy ‘Perspektiven für Deutschland’ (2002), a strategy that stands out both in an international comparison of national sustainability strategies as well as among German government policy strategies because of its relative stability over five consecutive government constellations, its rather high status and increasingly coercive nature. The study analyses what impact the sustainability strategy has had on the policy process between 2002 and 2015, in terms of defining problems and shaping policy processes. Contrasting rationalist and constructivist perspectives on the role of knowledge in policy, two factors, namely the level of (scientific and political) consensus about policy goals and the ‘contextual fit’ of problem definitions, are found to be main factors explaining how different aspects of the strategy is used. Moreover, the study argues that SI:s are part of a continuous process of ‘structuring’ in which indicator, user and context factors together help structure the sustainability challenge in such a way that it becomes more manageable for government policy.
A third article examines how 31 European countries have built supportive institutions of MBOR between 1992 and 2012. In particular during the 1990s and early 2000s much hope was put into the institutionalisation of Environmental Policy Integration (EPI) as a way to overcome sectoral thinking in sustainability policy making and integrate issues of environmental sustainability into all government policy. However, despite high political backing (FN, EU, OECD), implementation of EPI seems to differ widely among countries. The study is a quantitative longitudinal cross-country comparison of how countries’ ‘EPI architectures’ have developed over time. Moreover, it asks which ‘EPI architectures’ seem to be more effective in producing more ‘stringent’ sustainability policy.
Homo academicus goes Pop
(2016)
Mit (wissens-)soziologischen, komparatistisch-historischen sowie textanalytischen Mitteln erörtert die Autorin in diesem Buch zunächst die Genese und Struktur des populärwissenschaftlichen Feldes im internationalen Vergleich. Ausgehend von literatur- und texttheoretischen Ausführungen zu unterschiedlichen nationalen Genres des populärwissenschaftlichen Schreibens und zur Theorie des Popularisierens im Allgemeinen untersucht sie darauf folgend im Kontext der historischen Disziplingenese der Biologie anhand ausgewählter Akteure der Genetik, Epigenetik, Sociobiology und Evolutionary Psychology die intellektuellen Netzwerke und ihre Textproduktion. Schließlich avanciert die fiktionale Erzählliteratur selbst zur Kritikerin lebenswissenschaftlicher Ideologien und Theorien.
Anhand ausgewählter literarischer Werke des 20. und 21. Jahrhunderts werden die Wechselbeziehungen zwischen fiktionaler Erzählliteratur und nicht-fiktionaler Sachbuchliteratur untersucht.
Die Autorin geht der Frage nach, auf welche Art und Weise Alltagsund Wissenschaftssprache in der Literatur miteinander interagieren und eine immanente Ideologiekritik spekulativer Theoriebildung des Popular Science Writing initiieren.
Dieses Buch richtet sich an Geistes- und Sozialwissenschaftler, die das wissenschaftspolitische Programm der »Literaturwissenschaft als Lebenswissenschaft« (O. Ette) in anwendungsorientierten Forschungskontexten erprobt wissen wollen. Mit seinen polemischkritischen Thesen und einem selbstreflexiv-ironischen Schreibstil facht es das Gespräch über Populärwissenschaften weiter an: Es ist das Populäre, das sich quer über die sozialen Felder legt und der »illusio« (P. Bourdieu) des akademischen Textspiels neue Wege eröffnet.
While children acquire new words and simple sentence structures extremely fast and without much effort, the ability to process complex sentences develops rather late in life. Although the conjoint occurrence between brain-structural and brain-functional changes, the decrease of plasticity, and changes in cognitive abilities suggests a certain causality between these processes, concrete evidence for the relation between brain development, language processing, and language performance is rare. Therefore, the current dissertation investigates the tripartite relationship between behavior (in the form of language performance and cognitive maturation as prerequisite for language processing), brain structure (in the form of gray matter maturation), and brain function (in the form of brain activation evoked by complex sentence processing). Previous developmental studies indicate a missing increase of activation in accordance to sentence complexity (functional selectivity) in language-relevant brain areas in children. To determine the factors contributing to the functional development of language-relevant brain areas, different methodologies and data acquisition techniques were used to investigate the processing of center-embedded sentences in 5- and 6-year-old children, 7- and 8-year-old children, and adults. Behavioral results indicate that children between 5 and 8 years show difficulties in processing double embedded sentences and that their performance for these type of sentences is positively correlated with digit span. In 7- and 8-year-old children, it was found that especially the processing of long-distance relations between the initial phrase and its corresponding verb appears to be associated with the subject’s verbal working memory capacity. In contrast, children’s performance for double embedded sentences in the younger age group positively correlated with their performance in a standardized sentence comprehension test. This finding supports the hypothesis that processing difficulties in this age group may be mainly attributed to difficulties in processing case marking information. These findings are discussed with respect to current accounts of language and working memory development. A second study aimed at investigating the structural maturation of brain areas involved in sentence comprehension. To do this, whole-brain magnetic resonance images from 59 children between 5 and 8 years were collected and children’s gray matter was analyzed by using voxel-based morphometry. Children’s grammatical proficiency was assessed by a standardized sentence comprehension test. A confirmatory factory analysis corroborated a grammar-relevant and a verbal working memory-relevant factor underlying the measured performance. While children’s ability to assign thematic roles is positively correlated with gray matter probability (GMP) in the left inferior temporal gyrus and the left inferior frontal gyrus, verbal working memory-related performance is positively correlated with GMP in the left parietal operculum extending into the posterior superior temporal gyrus. These areas have been previously shown to be differentially engaged in adults’ complex sentence processing. Thus, the findings of the second study suggest a specific correspondence between children’s GMP in language-relevant brain regions and differential cognitive abilities which underlie complex sentence comprehension. In a third study, functional brain activity during the processing of center-embedded sentences was investigated in three different age groups (5–6 years, 7–8 years, and adults). Although all age groups engage a qualitatively comparable network of the left pars opercularis (PO), the left inferior parietal lobe extending into the posterior superior temporal gyrus (IPL/pSTG), the supplementary motor area (SMA) and the cerebellum, functional selectivity of these regions was only observable in adults. However, functional activation of the language-related regions (PO and IPL/pSTG) predicted sentence comprehension performance for all age groups. To solve the question of the complex interplay between different maturational factors, a fourth study analyzed the predictive power of gray matter probability, verbal working memory capacity, and behavioral differences in performance for simple and complex sentence for the functional selectivity of each activated region. These analyses revealed that the establishment of the adult-like functional selectivity for complex sentences is predicted by a reduction of the left PO’s gray matter probability across age groups while that of the IPL/pSTG is additionally predicted by verbal working memory capacity. Taken all findings together, the current thesis provides evidence that both structural brain maturation and verbal working memory expansion provide the basis for the emergence of functional selectivity in language-related brain regions leading to more efficient sentence processing during development.
Ikonische Macht
(2016)
Bilder sind Teil der medialen Öffentlichkeit. Sie konstruieren Gesellschaft. Wie machtvoll sind sie? Die Studie analysiert die soziale Gestaltung von Pressefotografien in Tageszeitungen. In Feininterpretationen werden die gestalterischen Routinen der Redaktionen nachgezeichnet. Zudem wird gezeigt, wie bei der Veröffentlichung um die Auslegung der Bilder gerungen wird. Die Autorin entwickelt die qualitative Bildanalyse innovativ weiter und liefert zugleich einen eigenständigen Beitrag zur Diskussion der ,Macht der Bilder‘.
Imago Dei versus Kultbild
(2016)
In freshwater sciences, nitrogen gained increasing attention in the past as an important resource potentially influencing phytoplankton growth and thus eutrophication. Most studies and all management approaches, however, are still restricted to dissolved inorganic nitrogen (DIN = nitrate + nitrite + ammonium) since dissolved organic nitrogen (DON) was considered to be refractory for most of the photoautotrophs. In the meantime this assumption has been disproved for all aquatic systems. While research on DON in marine ecosystems substantially increased, in freshwater a surprisingly small number of investigations has been carried out on DON utilization by phytoplankton or even the occurrence and seasonal development of total DON or its compounds in lakes. Therefore, our present knowledge on DON utilization by phytoplankton is often based on single species experiments using a sole, usually low molecular weight DON component, often in unnaturally high amounts mainly carried out with marine phytoplankton species. Thus, we know that some phytoplankton species can take up different DON fractions if they are available in high concentrations and as sole nitrogen source. This does not necessarily imply that phytoplankton would perform likewise in natural environments. In addition, it will be difficult to draw conclusions on the behavior of freshwater phytoplankton from experiments with marine phytoplankton since the nutrient regime in marine environments differs from that of freshwater. In the light of the parallel availability of inorganic and organic nitrogen species in natural freshwater ecosystems, several questions must be raised: "If inorganic nitrogen is available, would phytoplankton really rely on an organic nitrogen source? Could a connection be detected between the seasonal development of DON and changes in the phytoplankton community composition as found for inorganic nitrogen? And if we reduce the input of inorganic nitrogen in lakes and rivers would the importance of DON as nitrogen source for phytoplankton increase, counteracting all management efforts or even leading to undesired effects due to changes in phytoplankton physiology and biodiversity?" I experimentally addressed the questions whether those DON compounds differentially influence growth, physiology and composition of phytoplankton both as sole available nitrogen source and in combination with other nitrogen compounds. I hypothesized that all offered DON - compounds (urea, natural organic matter (NOM), dissolved free and combined amino acids (DFAA, DCAA)) could be utilized by phytoplankton at natural concentrations. However, I assumed that the availability would decrease with increasing compound complexity. I furthermore hypothesized that the occurrence of low DIN concentrations would not affect the utilization of DON negatively. The nitrogen source, whatsoever, would have an impact on phytoplankton physiology as well as community composition. To investigate these questions and assumptions I conducted bioassays with algae monocultures as well as phytoplankton communities testing the utilization of various DON compounds by several freshwater phytoplankton species. Especially the potential utilization of NOM, a complex DON compound mainly consisting of humic substances is of interest, since it is usually regarded to be refractory. In order to be able to use natural concentrations of DON - compounds for my experiments the concentration of total DON and some DON - compounds (urea, humic substances, heigh molecular weight substances) was assessed in Lake Müggelsee. All compounds were able to support algae growth in the low natural concentrations supplied. However, I found that the offered DON compounds differ in their availability to various algae species, both, as sole nitrogen source or in combination with low DIN concentrations. As expected, the availability decreased with increasing complexity of the nitrogen compound. Furthermore, I could show that changes in algal physiology (nitrogen storage, metabolism) occur depending on the utilized nitrogen source. Especially the secondary photosynthetic pigment composition, heterocyst frequency and C:N - ratio of the algae were affected. The uptake and usage of certain nitrogen compounds might be more costly, potentially resulting in those physiology changes. Whereas laboratory experiments with single species revealed strong effects of DON, algal responses to DON in a multi-species situation remain unclear. Experiments with phytoplankton communities from Lake Müggelsee revealed that the nitrogen pool composition does influence the phytoplankton community structure. The findings furthermore show that several species combined might utilize the supplied nitrogen completely different than monocultures in the laboratory. Thus, besides the actual ability of algae to use the offered nitrogen sources other factors, such as interspecific competition, may be of importance. I further investigated, if the results of the laboratory experiments, can be verified in the field. Here, I surveyed the seasonal development of several dissolved organic matter (DOM) components (urea, high molecular weight substances (HMWS), humic substances (HS)) and associated parameters (Specific UV-absorption (SUVA), C:N - ratio) in Lake Müggelsee between 2011 and 2013. Furthermore, data from the long term measurements series of Lake Müggelsee such as physical (temperature, light, pH, O2) and chemical parameters (nitrogen, phosphorous, silica, inorganic carbon), zooplankton and phytoplankton data were used to investigate how much of the variability of the phytoplankton composition in Lake Müggelsee can be explained by DON/DOM concentration and composition, relative to the other groups of explanatory variables. The results show that DON mainly consists of rather complex compounds such as humic substances and biopolymers (80 %) and that only slight seasonal trends are detectable. Using variance partitioning I could show, that the usually investigated nutrients (DIN, silica, inorganic carbon, phosphorous) and abiotic factors together explain most of the algae composition as was to be expected (57.1 % of modeled variance). However, DOM and the associated parameters uniquely explain 10.3 % of the variance and thus slightly more than zooplankton with 9.3 %. I could therefore prove, that the composition of DOM (nitrogen and carbon) is connected to the algae composition in an eutrophic lake such as Lake Müggelsee. DON - compounds such as urea, however, could not be correlated with the occurrence of specific phytoplankton species. Overall, the results of this study imply that DON can be a valuable nitrogen source for freshwater phytoplankton. DON is used by various species even when DIN is available in low concentrations. Through the reduction of DIN in lakes and rivers, the DON:DIN ratio might be changed, resulting even in an increased importance of DON as phytoplankton nitrogen source. My work suggests that not only N2-fixation but also DON utilization might compensate for reduced N - input. Changes from DIN to DON as main nitrogen source might also promote certain, potentially undesired algae species and influence the biodiversity of a limnic ecosystem through changes in the phytoplankton community structure. Thus, DON, especially urea, should be included in calculations concerning total available nitrogen and when determining nitrogen threshold values. Furthermore, the input-reduction of DON, for example from waste-water treatment plants should also be evaluated and the results of my thesis should find consideration when planning to reduce the nitrogen input in freshwater.
Implementation of a plasmodesmata gatekeeper system, and its effect on intercellular transport
(2016)
Die Bedeutung von Infrastrukturprojekten ist in der jüngeren Vergangenheit verstärkt in den Fokus des Gesetzgebers gerückt. Dieser ist in den letzten Jahren mehrfach grundlegend auf dem Gebiet des Investment- und Investmentsteuerrechts tätig geworden. Insbesondere die letzten Änderungen durch das AIFM-StAnpG als Anpassung steuerrechtlicher Vorschriften an die deutsche Umsetzung der AIFM-Richtlinie haben wieder Auswirkungen auf Infrastrukturinvestments. Die Untersuchung befasst sich zunächst mit dem Infrastrukturbegriff in Zusammenhang mit Infrastrukturinvestments und diskutiert sodann die steuerliche Behandlung von Anlegern solcher Infrastrukturinvestments unter besonderer Berücksichtigung des InvStG in der Fassung des AIFM-StAnpG. Dabei erfolgt die Betrachtung anhand von Infrastrukturfonds.
Sport ist heutzutage ein wichtiger Sektor des Arbeitslebens. Arbeitsverträge mit Berufssportlern weichen jedoch von klassischen Arbeitsverträgen in besonderer Weise ab. Der Berufssportler ist in der Ausübung seiner Sportarbeitsleistung zwar freier als andere Arbeitnehmer, aufgrund der physischen und psychischen Belastungen bedarf er aber gleichzeitig einer besonderen Fürsorge durch seinen Arbeitgeber.
Da Gesundheit und Fitness der Berufssportler eine herausgehobene Bedeutung haben, hat der Sportarbeitgeber ein erhöhtes Interesse, das Leben der Sportler auch außerhalb ihrer Kerntätigkeit zu beeinflussen, sei es durch spezielle Ernährungs- oder Trainingspläne oder durch das Verbot, gefährliche Sportarten in der Freizeit zu betreiben.
Aufbauend auf den Grundlagen des allgemeinen Arbeitsrechts untersucht der Verfasser anhand einer Vielzahl von denkbaren Direktionen den Inhalt und die Grenzen des Direktionsrechts im Berufssport. Der Untersuchung liegt die Hauptthese zugrunde, dass das Direktionsrecht im Berufssport aufgrund der Besonderheiten des Sports weiter als im allgemeinen Arbeitsrecht zu fassen ist. Dieses umfassende Direktionsrecht steht dabei in Wechselwirkung zu einer besonderen Fürsorgepflicht des Arbeitgebers. Diese Fürsorgepflicht, die ebenfalls weitreichender als im allgemeinen Arbeitsrecht ist, setzt dem Sportarbeitgeber indes nicht nur Grenzen in der Direktionsrechtsausübung, sondern statuiert darüber hinaus eigenständige Handlungspflichten. Um diese Hauptthese sowie einige Teilfragen nicht nur abstrakt, sondern auch vor dem Hintergrund der sportlichen Praxis rechtlich bewerten zu können, wurde durch den Verfasser Ende des Jahres 2012 eine Umfrage bei den Vereinen der 1. und 2. Fußballbundesliga und bei den Vereinen der 1. Tennisbundesliga durchgeführt. Die Ergebnisse dieser Umfrage stützen die gefundenen rechtlichen Ergebnisse und belegen deren Praxistauglichkeit.
The humid tropics are the region with the highest rate of land-cover change worldwide. Especially prevalent is the deforestation of old-growth tropical forests to create space for cattle pastures and soybean fields.
The regional water cycle is influenced by vegetation cover in various ways. Especially evapotranspiration considerably contributes to water vapor content in the lower atmosphere. Besides active transpiration by plants, evaporation from wetted plant surfaces further known as interception loss is an important supply of water vapor. Changes in interception loss due to change in land cover and the related consequences on the regional water cycle in the humid tropics of Latin America are the research focus of my thesis. (1) In an experimental setup I assess differences in interception loss between an old-growth tropical forest and a soybean plantation. (2) In a modeling study, I examine interception losses of these two vegetation types compared to a younger secondary forest with the use of the Gash interception model, including an uncertainty analysis for the estimation of the necessary model parameters. (3) Studying the water balance of a 192-km² catchment I disentangle the influences of changes in land cover and climatic factors on interception loss.
The three different research sites in my thesis represent a currently typical spectrum for land-cover changes in Latin America. In the first example I study the consequences of deforestation of transitional forest, which forms the transition from the Brazilian tree savanna (cerrado) to tropical rain forest, for the establishment of soybean fields in the southern Amazon basin. The second study site is a young secondary forest within the “Agua Salud” project area in Panama as an example of reforestation of former pastures. The third study site is the Cirí Grande river catchment which comprises a mixture of young and old forests as well as pastures, which is typical for the southern sub-catchments of the Panama Canal.
The experimental approach consists of the indirect estimation of interception loss by measuring throughfall and stem flow. For the first experimental study I measured throughfall as well as stem flow manually. Measurements of the leaf area index of the two land covers do not show distinct differences; hence it could not serve as an explanation for the differences in the measured interception loss. The considerably higher interception loss at the soybean field is attributed to a possible underestimation of stemflow but also to the stronger ventilation within the well-structured plant rows causing higher evaporation rates. This situation is valid only for two months of the rainy season, when soybean plants are fully developed. In the annual balance evapotranspiration at the soybean site is clearly less than at the forest site, accelerating the development of fast runoff components and consequently discharge. In the medium term, a reduction of water availability in the study area can be expected.
For the modeling study, throughfall in a young secondary forest is sampled automatically. The resulting temporally high-resolution dataset allows the distinction between different precipitation and interception events. The core of this study is the sensitivity and uncertainty analysis of the Gash interception model parameters and the consequences for its results. Canopy storage capacity plays a key role for the model and parameter uncertainty. With increasing storage capacity uncertainty in parameter delineation also increases. Evaporation rate as the driving component of the interception process incorporates in this context the largest parameter uncertainty. Depending on the selected method for parameter estimation, parameter values may vary tremendously.
In the third study, I analyze the influence of interception loss on the water balance of the Cirí Grande catchment, incorporating the interlinked effects of temperature, precipitation and changes of the land use mosaic using the SWAT (soil water assessment tool) model. Constructing several land-cover scenarios I assess their influence on the catchment’s discharge. The results show that land-cover change exerts only a small influence on annual discharge in the Cirí Grande catchment whereas an increase in temperature markedly influences evapotranspiration. The temperature-induced larger transpiration and interception loss balances the simultaneous increase in annual precipitation, such that the resulting changes in annual discharge are negligible.
The results of the three studies show the considerable effect of land cover on interception. However, the magnitude of this effect can be masked by changes in local conditions, especially by an increase in temperature. Hence, the results cannot be transferred easily between the different study sites. For modeling purposes, this means that measurements of vegetation characteristics as well as interception loss at the respective sites are indispensable.