Refine
Has Fulltext
- no (186) (remove)
Year of publication
- 2016 (186) (remove)
Document Type
- Doctoral Thesis (186) (remove)
Is part of the Bibliography
- yes (186)
Keywords
- Antidepressiva (1)
- Antipsychotika (1)
- Arbeitsgedächtniss (1)
- Avantgarde (1)
- Bildungsentscheidungen (1)
- Bildungsungleichheit (1)
- DON (1)
- Demenz (1)
- Deutsch als Zweitsprache (1)
- Deutsches Judentum (1)
Institute
- Institut für Biochemie und Biologie (45)
- Institut für Chemie (15)
- Historisches Institut (13)
- Institut für Ernährungswissenschaft (12)
- Wirtschaftswissenschaften (12)
- Institut für Geowissenschaften (11)
- Institut für Informatik und Computational Science (10)
- Institut für Physik und Astronomie (9)
- Institut für Germanistik (8)
- Sozialwissenschaften (8)
In der modernen Kampfführung ist ein steigender Trend zu unbemannten und autonomen Systemen zu beobachten. Doch inwieweit gelingt es dem Recht, mit den technischen Entwicklungen Schritt zu halten? Ist der Einsatz vollautonomer Systeme noch mit dem geltenden Völkerrecht vereinbar? Die Autorin untersucht zunächst die rechtlichen Rahmenbedingungen einer Programmierung von vollautonomen Systemen und geht, sofern möglich, hierbei bereits auf technische Umsetzungsmöglichkeiten ein. Zugleich werden Grenzen der autonomen Entscheidungsfindung, wie z. B. bei der Bestimmung der Verhältnismäßigkeit eines Angriffs, aufgezeigt. In einem zweiten Teil untersucht die Autorin die Problematik der Entscheidungs- und Legitimitätskette bei Einsätzen autonomer Systeme. Waren bisher stets einzelne Soldaten bzw. ihre Befehlshaber für Kriegsverbrechen verantwortlich, so stellt sich bei vollautonomen Systemen die Frage der Verantwortlichkeit im Falle eines rechtswidrigen Einsatzes. Inwieweit kann ein technischer Defekt oder die Fehlprogrammierung eines Systems noch zu einer strafrechtlichen Verantwortlichkeit von Befehlshabern und militärischem Personal führen? Hierbei werden die Lücken des geltenden Völkerstrafrechts deutlich, welches bisher nur begrenzt eine Strafbarkeit für Fahrlässigkeit und Unterlassen vorsieht.
From dark to light
(2016)
Europa im Rathaus
(2016)
Seit den 90er Jahren gehen von der europäischen Integration zunehmend Rückwirkungen auf die subnationalen Ebenen aus. In der Folge kann eine Vervielfachung der kommunalen EU-bezogenen Tätigkeiten sowie die Einrichtung spezieller Koordinierungsstellen beobachtet werden. Aufbauend auf einer Befragung unter allen deutschen Großstädten und anhand von Experteninterviews in Bremerhaven, Dresden und Bochum widmet sich dieses Buch der Ausgestaltung der kommunalen EU-Arbeit in der Praxis. Im Mittelpunkt der Untersuchung steht die Frage nach dem Mehrwert einer zentralen EU-Stelle in der Stadtverwaltung.
In Gelehrte – Republik – Gelehrtenrepublik untersucht Marc Banditt die Eigenheiten aufklärerischer Tendenzen der Stadt Danzig. Deren Nukleus bildete die zur Jahreswende 1742/43 gegründete Naturforschende Gesellschaft, einer der am längsten existierenden privaten Zusammenschlüsse auf diesem Gebiet. Der strukturelle Wandel dieser Sozietät in den ersten knapp 80 Jahren ihres Bestehens wird dabei als die Summe einer Vielzahl von ineinandergreifenden Entwicklungssträngen verstanden, die die voranschreitende gesellschaftliche Durchdringung der Aufklärungsideen und -inhalte im Laufe des 18. Jahrhunderts kennzeichneten. Trotz der Kräfteverschiebungen in Nordosteuropa, die in Gestalt der Teilungen Polen-Litauens der autonomen Stellung der Hansestadt im Jahr 1793 ein Ende bereiteten, offenbart sich, dass die Geschichte des Danziger Naturforscherzirkels mehr Kontinuitäten als Brüche aufweist. Sowohl auf lokaler als auch auf transregionaler Ebene generierte sich die Vereinigung als eine elementare Schnittstelle zwischenmenschlicher Beziehungen, die von familiären Verflechtungen, weitreichenden Gelehrtennetzwerken und patronalen Abhängigkeitsverhältnissen geprägt waren. Auf diese Weise verkörperte die Naturforschende Gesellschaft zum einen den Aufklärungsprozess innerhalb der Stadt Danzig und zum anderen deren Stellenwert als ein wissenschaftlicher Standort im damaligen Europa.
Characterization of the Clp protease complex and identification of putative substrates in N. tabacum
(2016)
Die Geschichte der Landtage in der SBZ und in der frühen DDR ist weithin in Vergessenheit geraten. Obwohl die allgemeine Forschungsmeinung ihnen bislang nur die Rolle einer Fußnote der Landesgeschichte beigemessen hat, besaßen die Parlamente in Wirklichkeit für die Nachkriegszeit eine nicht zu unterschätzende Bedeutung.
Die vorliegende Studie untersucht am Beispiel der Landtage von Brandenburg und Thüringen den Wandel der Volksvertretungen von ihren Anfängen 1946 bis zur Auflösung 1952. Im Sinne einer vergleichenden Landesgeschichte werden die Parlamente nicht nur in den von der Besatzungsmacht vorgegebenen politischen und administrativen Rahmen eingeordnet, sondern es wird auch nach ihren strukturellen Gemeinsamkeiten und Besonderheiten gefragt. Das Augenmerk richtet sich zudem auf die Wandlung der Landtagsfraktionen von CDU und LDP: Pochten diese anfangs auf Eigenständigkeit und Gleichberechtigung, wurden sie rasch einem Prozess der politischen Anpassung und schließlich der Ausschaltung unterworfen. An dessen Ende stand die vollständige Unterordnung unter den Willen der Einheitspartei. Die Publikation versteht sich somit als ein Beitrag zum besseren Verständnis der Diktaturdurchsetzung in der SBZ/DDR auf Landesebene.
Datenbankbasierte epidemiologische Untersuchung über die Versorgung demenzerkrankter Patienten
(2016)
Hintergrund:
Demenz wird von der Weltgesundheitsorganisation als ein in der Regel chronisch oder progressiv verlaufendes Syndrom definiert, das von einer Vielzahl von Hirnerkrankungen verursacht wird, welche das Gedächtnis, das Denkvermögen, das Verhalten und die Fähigkeit, alltägliche Tätigkeiten auszuführen, beeinflussen. Weltweit leiden 47,5 Millionen Menschen unter Demenz und diese Zahl wird sich voraussichtlich bis zum Jahr 2050 verdreifachen.
In den vorliegenden Studien wurden zum Einem die Faktoren, welche mit dem Risiko einhergehen eine Demenz zu entwickeln, analysiert. Zum Anderen wurde die Persistenz der medikamentösen Behandlung von depressiven Zuständen mit Antidepressiva sowie die Persistenz der medikamentösen Behandlung von Verhaltensstörungen, therapiert mit Antipsychotika, bei Demenzpatienten untersucht.
Durchführung:
Alle drei Studien basieren auf den Daten der IMS Disease Analyzer-Datenbank.
Die Daten der Disease Analyzer-Datenbank werden über standardisierte Schnittstellen direkt monatlich aus dem Praxiscomputer generiert. Die Daten werden vor der Übertragung verschlüsselt und entsprechen in Umfang und Detaillierungsgrad der Patientenakte.
Risikofaktoren für eine Demenzdiagnose
Methode:
Insgesamt wurden in die Studie 11.956 Patienten mit einer Erstdiagnose (Indexdatum) einer Demenz (ICD 10: F01, F03, G30) zwischen Januar 2010 und Dezember 2014 eingeschlossen. 11.956 Kontrollpatienten (ohne Demenz) wurden den Patienten nach Alter, Geschlecht, Art der Krankenversicherung und Arzt zugeordnet. In beiden Fällen wurden die Praxisaufzeichnungen dazu verwendet, sicherzustellen, dass die Patienten vor dem Indexdatum jeweils 10 Jahre kontinuierlich beobachtet worden waren. Insgesamt wurden 23.912 Personen betrachtet.
Mehrere Erkrankungen, die möglicherweise mit Demenz assoziiert sind, wurden anhand von allgemeinärztlichen Diagnosen bestimmt (ICD-10-Codes): Diabetes (E10-E14), Hypertonie (I10), Adipositas (E66), Hyperlipidämie (E78), Schlaganfall (einschließlich transitorische ischämische Attacke, TIA) (I63, I64, G45), Parkinson-Krankheit (G20, G21), intrakranielle Verletzung (S06), koronare Herzkrankheit (I20-I25), leichte kognitive Beeinträchtigung (F06) und psychische und Verhaltensstörungen durch Alkohol (F10). Das Vorhandensein mehrerer Medikamente, wie z. B. Statine, Protonenpumpenhemmer und Antihypertensiva (einschließlich Diuretika, Beta-Blocker, Calciumkanalblocker, ACE-Hemmer und Angiotensin-II), wurde ebenfalls bemessen.
Ergebnisse:
Das Durchschnittsalter für die 11.956 Demenzpatienten und die 11.956 der Kontrollkohorte war 80,4 (SD 5,3) Jahre. 39,0% der waren männlich. In dem multivariaten Regressionsmodell, wurden folgende Variablen mit einem erhöhten Risiko von Demenz in einem signifikanten Einfluß assoziiert: milde kognitive Beeinträchtigung (MCI) (OR: 2,12), psychische und Verhaltensstörungen durch Alkohol (1,96), Parkinson-Krankheit (PD) (1,89), Schlaganfall (1,68), intrakranielle Verletzung (1,30), Diabetes (1,17), Fettstoffwechselstörung (1,07), koronare Herzkrankheit (1,06). Der Einsatz von Antihypertensiva (0,96), Statinen (OR: 0,94) und Protonen-Pumpen-Inhibitoren (PPI) (0,93) wurden mit einem verringerten Risiko der Entwicklung von Demenz.
Schlussfolgerung:
Die gefundenen Risikofaktoren für Demenz stehen in Einklang mit der Literatur. Nichtsdestotrotz bedürfen die Zusammenhänge zwischen der Verwendung von Statinen, PPI und Antihypertensiva und einem verringerten Demenzrisiko weiterer Untersuchungen.
Persistenz der Behandlung mit Antidepressiva bei Patienten mit Demenz
Methode:
Patienten wurden ausgewählt, wenn bei ihnen im Zeitraum zwischen Januar 2004 und Dezember 2013 eine Demenzdiagnose (ICD 10: F01, F03, G30) und eine erste Verordnung eines trizyklischen Antidepressivums oder selektiven Serotonin-
Wiederaufnahmehemmers (SSRI) oder Serotonin-Noradrenalin-Wiederaufnahmehemmers (SSNRI) vorlagen. Ausgewählte Patienten wurden über einen Zeitraum von bis zu zwei Jahre nach dem Indexdatum beobachtet. Das letzte Nachbeobachtungsdatum eines Patienten war der 31. Dezember 2014. Insgesamt standen 12.281 Patienten für die Persistenzanalyse zur Verfügung. Der Hauptzielparameter war die Abbruchrate der Antidepressivabehandlung innerhalb von sechs Monaten nach dem Indexdatum. Behandlungsabbruch wurde definiert als ein Zeitraum von 90 Tagen ohne diese Therapie.
Als demographische Daten wurden Alter, Art der Krankenversicherung (privat oder gesetzlich), Art der Praxis (Neurologe oder Allgemeinmediziner) und Praxisregion (Ost- oder Westdeutschland) erhoben. Die folgenden Demenzdiagnosen wurden berücksichtigt: Alzheimer-Krankheit (G30), vaskuläre Demenz (F01) und nicht näher bezeichnete Demenz (F03). Darüber hinaus wurde der Charlson-Komorbiditäts-Index als allgemeiner Marker für Komorbidität verwendet. Darüber hinaus wurden die folgenden Diagnosen als Komorbiditäten in die Studie aufgenommen: Depression (ICD 10: F32-33), Delir (F05), Typ-2-Diabetes mellitus (E11, E14), Hypertonie (I10), koronare Herzkrankheit (I24, I25), Schlaganfall (I63, I64), Myokardinfarkt (I21-23) und Herzinsuffizienz (I50).
Ergebnisse:
Nach sechs Monaten Nachbeobachtung hatten 52,7 % (von 12,281 Demenzpatienten) der mit Antidepressiva behandelten Demenzpatienten die Medikamenteneinnahme abgebrochen. Die multivariaten Regressionsanalysen zeigten ein signifikant geringeres Risiko für einen Behandlungsabbruch bei mit SSRRI oder SSNRI behandelten Patienten verglichen mit Patienten, die trizyklische Antidepressiva einnahmen. Es zeigte sich ein signifikant geringeres Risiko eines Behandlungsabbruchs bei jüngeren Patienten.
Schlussfolgerung:
Die Ergebnisse zeigen eine unzureichende Persistenz mit Antipsychotika bei Demenzpatienten unter Alltagsbedingungen. Es muss eine Verbesserung erreicht werden, um die in den Richtlinien empfohlene Behandlung sicherzustellen.
Persistenz der Behandlung mit Antipsychotika bei Patienten mit Demenz
Methode:
Diese Studie umfasste Patienten im Alter ab 60 Jahren mit Demenz beliebigen Ursprungs, die zwischen Januar 2009 und Dezember 2013 (Indexdatum) zum ersten Mal Antipsychotikaverordnungen (ATC: N05A) von deutschen Psychiatern erhielten. Der Nachbeobachtungszeitraum endete im Oktober 2015. Die Demenz wurde auf Grundlage der ICD-10-Codes für vaskuläre Demenz (F01), nicht näher bezeichnete Demenz (F03) und Alzheimer-Krankheit (G30) bewertet.
Der Hauptzielparameter war die Behandlungspersistenzrate über einen Zeitraum von mehr als 6 Monaten nach dem Indexdatum. Die Persistenz wurde als Therapiezeit ohne Absetzen der Behandlung, definiert als mindestens 180 Tage ohne Antipsychotikatherapie, geschätzt. Alle Patienten wurden für eine Dauer von bis zu zwei Jahren ab ihrem Indexdatum beobachtet.
Gleichzeitig auftretende Erkrankungen wurden anhand von Diagnosen (ICD-10-Codes) von Depression (F32, F33), Parkinson-Krankheit (G20), psychischer Störungen aufgrund bekannter physiologischer Erkrankungen (F06) und Persönlichkeits- und Verhaltensstörungen aufgrund physiologischer Erkrankungen (F07) bestimmt. Als demographische Daten wurden Alter, Geschlecht und Art der Krankenversicherung (privat/gesetzlich) erhoben.
Ergebnisse:
12,979 Demenzpatienten mit einem Durchschnittsalter von 82 Jahre (52.1% leben in Pflegeheimen) wurden in diese Studie analysiert. Nach zwei Jahren Nachbeobachtung hatten 54,8 %, 57,2 %, 61,1 % bzw. 65,4 % der Patienten zwischen 60-69, 70-79, 80-89 bzw. 90-99 Jahren Antipsychotikaverordnungen erhalten (p<0,001). 82,6 % der in Pflegeheimen lebenden Patienten und 76,2 % der Patienten in häuslicher Pflege setzten ihre Behandlung ebenfalls länger als 6 Monate fort; nach zwei Jahren lag der Anteil bei 63,9 % (in Pflegeheimen) bzw. 55,0 % (in häuslicher Pflege) (p<0,001).
Schlussfolgerung:
Die Studie zeigt, dass der Anteil der mit Antipsychotika behandelten Demenzpatienten sehr hoch ist. Weitere Studien, einschließlich qualitativer Untersuchungen, sind nötig, um die Gründe für dieses Verschreibungsverhalten zu verstehen und zu erklären.
In the debate on how to govern sustainable development, a central question concerns the interaction between knowledge about sustainability and policy developments. The discourse on what constitutes sustainable development conflict on some of the most basic issues, including the proper definitions, instruments and indicators of what should be ‘developed’ or ‘sustained’. Whereas earlier research on the role of (scientific) knowledge in policy adopted a rationalist-positivist view of knowledge as the basis for ‘evidence-based policy making’, recent literature on knowledge creation and transfer processes has instead pointed towards aspects of knowledge-policy ‘co-production’ (Jasanoff 2004). It is highlighted that knowledge utilisation is not just a matter of the quality of the knowledge as such, but a question of which knowledge fits with the institutional context and dominant power structures. Just as knowledge supports and justifies certain policy, policy can produce and stabilise certain knowledge. Moreover, rather than viewing knowledge-policy interaction as a linear and uni-directional model, this conceptualization is based on an assumption of the policy process as being more anarchic and unpredictable, something Cohen, March and Olsen (1972) has famously termed the ‘garbage-can model’.
The present dissertation focuses on the interplay between knowledge and policy in sustainability governance. It takes stock with the practice of ‘Management by Objectives and Results’ (MBOR: Lundqvist 2004) whereby policy actors define sustainable development goals (based on certain knowledge) and are expected to let these definitions guide policy developments as well as evaluate whether sustainability improves or not. As such a knowledge-policy instrument, Sustainability Indicators (SI:s) help both (subjectively) construct ‘social meaning’ about sustainability and (objectively) influence policy and measure its success. The different articles in this cumulative dissertation analyse the development, implementation and policy support (personal and institutional) of Sustainability Indicators as an instrument for MBOR in a variety of settings. More specifically, the articles centre on the question of how sustainability definitions and measurement tools on the one hand (knowledge) and policy instruments and political power structures on the other, are co-produced.
A first article examines the normative foundations of popular international SI:s and country rankings. Combining theoretical (constructivist) analysis with factor analysis, it analyses how the input variable structure of SI:s are related to different sustainability paradigms, producing a different output in terms of which countries (developed versus developing) are most highly ranked. Such a theoretical input-output analysis points towards a potential problem of SI:s becoming a sort of ‘circular argumentation constructs’. The article thus, highlights on a quantitative basis what others have noted qualitatively – that different definitions and interpretations of sustainability influence indicator output to the point of contradiction. The normative aspects of SI:s does thereby not merely concern the question of which indicators to use for what purposes, but also the more fundamental question of how normative and political bias are intrinsically a part of the measurement instrument as such. The study argues that, although no indicator can be expected to tell the sustainability ‘truth-out-there’, a theoretical localization of indicators – and of the input variable structure – may help facilitate interpretation of SI output and the choice of which indicators to use for what (policy or academic) purpose.
A second article examines the co-production of knowledge and policy in German sustainability governance. It focuses on the German sustainability strategy ‘Perspektiven für Deutschland’ (2002), a strategy that stands out both in an international comparison of national sustainability strategies as well as among German government policy strategies because of its relative stability over five consecutive government constellations, its rather high status and increasingly coercive nature. The study analyses what impact the sustainability strategy has had on the policy process between 2002 and 2015, in terms of defining problems and shaping policy processes. Contrasting rationalist and constructivist perspectives on the role of knowledge in policy, two factors, namely the level of (scientific and political) consensus about policy goals and the ‘contextual fit’ of problem definitions, are found to be main factors explaining how different aspects of the strategy is used. Moreover, the study argues that SI:s are part of a continuous process of ‘structuring’ in which indicator, user and context factors together help structure the sustainability challenge in such a way that it becomes more manageable for government policy.
A third article examines how 31 European countries have built supportive institutions of MBOR between 1992 and 2012. In particular during the 1990s and early 2000s much hope was put into the institutionalisation of Environmental Policy Integration (EPI) as a way to overcome sectoral thinking in sustainability policy making and integrate issues of environmental sustainability into all government policy. However, despite high political backing (FN, EU, OECD), implementation of EPI seems to differ widely among countries. The study is a quantitative longitudinal cross-country comparison of how countries’ ‘EPI architectures’ have developed over time. Moreover, it asks which ‘EPI architectures’ seem to be more effective in producing more ‘stringent’ sustainability policy.
Begriffe wie „Türken“, „Menschen mit türkischem Migrationshintergrund“, etc., die in vielen Bereichen des Lebens verwendet werden, sind Ausdruck der vorliegenden Differenzordnungen und Machtstrukturen und können diskriminierend wirken. Das ist z.B. dann der Fall, wenn bestimmte Begriffe verwendet werden, obwohl eine Kontextrelevanz nicht unbedingt vorliegt. Einige ethnische Bezeichnungen werden dabei häufiger verwendet als andere, trotz vergleichbarer Kontextrelevanz: „türkische/arabische Kinder“ aber nicht „englische/spanische Kinder“ (Wiese 2012), „Deutsch-Türke“ Mesut Özil aber nicht „Deutsch-Tunesier“ Sami Khedira. Erst die Bezeichnungen schaffen hier die Subjekte. Die besondere Auszeichnung macht es in der Folge möglich, dass ihnen Eigenschaften zugeschrieben werden (do Mar Castro Varela/Dhawan 2004). Aus Studien geht hervor, dass Ethnisierung mit Unterschichtung (Hormel 2007) in Verbindung gebracht wird und Begriffe wie „Migrant“ mit negativen Eigenschaften (Scarvagliere/Zech 2013). Durch die Auszeichnung von Abweichungen von dem von der Mehrheit definierten unmarkierten Normalfall wird eine Differenzordnung (Mecheril/Melter 2012) hergestellt, die das vermeintliche Anders-Sein ins Zentrum der Aufmerksamkeit rückt. Folgen sind Abwertung bestimmter (Erst-)Sprachen, Unterwerfung durch Beschreibungspraxen und Restriktionen auf dem Feld der Repräsentation (Broden/Mecheril 2007).
Ausgehend von diesen Überlegungen wird in der Arbeit „Ethnizität“ diskutiert, worauf viele dieser Bezeichnungen rekurrieren. Barth (1969, 1994) stellt fest, dass Ethnizität der Abgrenzung dient und Zugehörigkeit zu ethnische Gruppen durch kategoriale Selbst- und Fremdzuschreibungen bestimmt wird. Brubaker (2004) folgert daher, dass „Gruppen“ nur in Form von Vorstellungen existieren, die Individuen davon haben und diese Subjektivität zu unterschiedlichen Konstruktionen ethnischer Identität führt. Dementsprechend können auch „multiple ethnische Identitäten“ (Keupp 2002) und „Hybriditäten“ (Foroutan 2013) das Ergebnis der individuellen Konstruktion sein, ohne dass diese Formen gemeinhin akzeptierte Bezeichnungen darstellen.
Um die individuelle Entstehung ethnischer Identität nachvollziehen zu können, werden in der Arbeit Spracherwerbsgeschichten analysiert, da verschiedene Studien nahelegen, dass das Sprechen einer Sprache in engem Zusammenhang zur Ethnizität steht. Ohm (2008) zeigt, dass Zweitsprachenerwerb mit Identitätsprozessen in einem wechselseitigen Bedingungsverhältnis steht. Giles/Bourhis/Taylor (1977: 326) zeigen anhand von Untersuchungen in mehrsprachigen Gebieten wie Quebec und Wales, dass Sprache enger mit ethnischer Identität verbunden ist als Nationalität oder „Kultur“. Rosenberg (2015) führt am Beispiel der ehemaligen UdSSR auf, dass das Sprechen einer Sprache gleichbedeutend mit dem Zugehörigkeit zu einer ethnischen „Gruppe“ war. Sprache greift auch als Ausschlusskriterium: Nur wer eine Sprache gut spricht, darf die damit verbundene Identität in Anspruch nehmen (Schroeder/Dollnick, 2013: 104).
Mithilfe der Methode des narrativen Interviews können Spracherwerbsgeschichten produziert, und individuelle kognitive Perspektiven und gesellschaftliche Prozesse aufgedeckt werden. In der Analyse können vier Wege der Entstehung ethnischer Identität unterschieden werden: I. Ethnizität als primäre und dauerhafte Dimension, II. Multiple ethnische Identität, III. Unmarkierte ethnische Identität, IV. Selbstbestimmtheit. So kommt die Untersuchung zu dem Schluss, dass Ethnische Identität bei „Menschen mit türkischem Migrationshintergrund“ durch individuelle Erfahrungen entsteht, sich verändern und Mehrfachzugehörigkeiten oder Hybriditäten zulassen kann. Dieses Ergebnis widerspricht dem alltäglichen Gebrauch bestimmter Begriffe und stellt damit gängige Bezeichnungsweisen und Differenzordnungen in Frage.
Bedeutung der abhängigen Streuung für die optischen Eigenschaften hochkonzentrierter Dispersionen
(2016)
Selbstverständnis und Image der Unternehmensberatung, das Bewerbern, Mitarbeitern und Kunden gleichermaßen Wissensvorsprung durch Ballung der besten Köpfe verspricht, scheinen sowohl für den Berater als auch den Kunden einen Erfolgsfaktor einzunehmen. Die Karriere des Unternehmensberaters wird im Vergleich zu anderen Branchen durch eine starke Formalisierung anhand von Kompetenzen und Entwicklungspfaden begleitet. Talentgewinnung und -entwicklung sind dabei Kernaufgaben des Personalmanagements, das gerade aufgrund seiner kompetenzbasierten Instrumente und formalistischen Strukturen als Erfolgsfaktor gilt. Die Analyse der Autorin setzt beim Personalmanagement der Unternehmensberatung an. Auffällig erscheinen dabei zunächst ähnliche Strukturen und Instrumente zur Talentidentifikation und -entwicklung, die für eine gesamte Branche charakteristisch sind. Speziell für Professional Service Firms ist der Mitarbeiter die entscheidende ökonomische Größe in der Leistungserbringung. Der Kunde beurteilt die Unternehmensleistung im Zusammenspiel mit seinem Kontakt zum Mitarbeiter, der maßgeblich für die Leistungserbringung und Qualitätssicherung verantwortlich ist. Der Analysefokus liegt deshalb im Personalmanagement von Unternehmensberatungen als Teil der Professional Service Firms und wird vor dem Hintergrund systemtheoretischer Überlegungen beleuchtet. Eckpfeiler des Systems zeigen sich insbesondere in Form von branchenüblichen Rekrutierungsstrategien, der formalistischen Leistungsbeurteilung, dem vergleichsweise steilen Karriereverlauf sowie anhand überdurchschnittlicher Gehälter. Hat die Unternehmensberatung die Qualifizierung und Entwicklung ihrer Mitarbeiter zum Erfolgsfaktor gemacht? Die Autorin analysiert, ob das Personalmanagement und seine Verfahren berechtigterweise als Erfolgsfaktor einer Branche gelten, welche Faktoren den wirtschaftlichen Erfolg der Branche beeinflussen und welche Grenzen die Nutzenanalyse in Bezug auf die Beratungsleistung erfährt. ?
Investigation of novel proteins and polysaccharides associated with coccoliths of Emiliania huxleyi
(2016)
The humid tropics are the region with the highest rate of land-cover change worldwide. Especially prevalent is the deforestation of old-growth tropical forests to create space for cattle pastures and soybean fields.
The regional water cycle is influenced by vegetation cover in various ways. Especially evapotranspiration considerably contributes to water vapor content in the lower atmosphere. Besides active transpiration by plants, evaporation from wetted plant surfaces further known as interception loss is an important supply of water vapor. Changes in interception loss due to change in land cover and the related consequences on the regional water cycle in the humid tropics of Latin America are the research focus of my thesis. (1) In an experimental setup I assess differences in interception loss between an old-growth tropical forest and a soybean plantation. (2) In a modeling study, I examine interception losses of these two vegetation types compared to a younger secondary forest with the use of the Gash interception model, including an uncertainty analysis for the estimation of the necessary model parameters. (3) Studying the water balance of a 192-km² catchment I disentangle the influences of changes in land cover and climatic factors on interception loss.
The three different research sites in my thesis represent a currently typical spectrum for land-cover changes in Latin America. In the first example I study the consequences of deforestation of transitional forest, which forms the transition from the Brazilian tree savanna (cerrado) to tropical rain forest, for the establishment of soybean fields in the southern Amazon basin. The second study site is a young secondary forest within the “Agua Salud” project area in Panama as an example of reforestation of former pastures. The third study site is the Cirí Grande river catchment which comprises a mixture of young and old forests as well as pastures, which is typical for the southern sub-catchments of the Panama Canal.
The experimental approach consists of the indirect estimation of interception loss by measuring throughfall and stem flow. For the first experimental study I measured throughfall as well as stem flow manually. Measurements of the leaf area index of the two land covers do not show distinct differences; hence it could not serve as an explanation for the differences in the measured interception loss. The considerably higher interception loss at the soybean field is attributed to a possible underestimation of stemflow but also to the stronger ventilation within the well-structured plant rows causing higher evaporation rates. This situation is valid only for two months of the rainy season, when soybean plants are fully developed. In the annual balance evapotranspiration at the soybean site is clearly less than at the forest site, accelerating the development of fast runoff components and consequently discharge. In the medium term, a reduction of water availability in the study area can be expected.
For the modeling study, throughfall in a young secondary forest is sampled automatically. The resulting temporally high-resolution dataset allows the distinction between different precipitation and interception events. The core of this study is the sensitivity and uncertainty analysis of the Gash interception model parameters and the consequences for its results. Canopy storage capacity plays a key role for the model and parameter uncertainty. With increasing storage capacity uncertainty in parameter delineation also increases. Evaporation rate as the driving component of the interception process incorporates in this context the largest parameter uncertainty. Depending on the selected method for parameter estimation, parameter values may vary tremendously.
In the third study, I analyze the influence of interception loss on the water balance of the Cirí Grande catchment, incorporating the interlinked effects of temperature, precipitation and changes of the land use mosaic using the SWAT (soil water assessment tool) model. Constructing several land-cover scenarios I assess their influence on the catchment’s discharge. The results show that land-cover change exerts only a small influence on annual discharge in the Cirí Grande catchment whereas an increase in temperature markedly influences evapotranspiration. The temperature-induced larger transpiration and interception loss balances the simultaneous increase in annual precipitation, such that the resulting changes in annual discharge are negligible.
The results of the three studies show the considerable effect of land cover on interception. However, the magnitude of this effect can be masked by changes in local conditions, especially by an increase in temperature. Hence, the results cannot be transferred easily between the different study sites. For modeling purposes, this means that measurements of vegetation characteristics as well as interception loss at the respective sites are indispensable.
Este libro adopta un enfoque semántico-funcional en el estudio de la imperfectividad en el español. La imperfectividad, como categoría semántico-funcional, encuentra afinidades con otras funciones semánticas, donde el valor de verdad de una situación se presenta como indeterminado o impreciso como, por ejemplo, en la reproducción de citas y distanciamiento del hablante frente a lo dicho; de manera que la imperfectividad se solapa con la modalidad y evidencialidad. Asimismo, se analizan las funciones secundarias de la imperfectividad relacionadas con la modalidad epistémica y evidencialidad indirecta en la prensa española. En todos los casos, los textos analizados proceden de corpus reales del español (CREA, Corpus del Español y GlossaNet).
The author examines the cultural identity development of Oromo-Americans in Minnesota, an ethnic group originally located within the national borders of Ethiopia. Earlier studies on language and cultural identity have shown that the degree of ethnic orientation of minorities commonly decreases from generation to generation. Yet oppression and a visible minority status were identified as factors delaying the process of de-ethnicization. Given that Oromos fled persecution in Ethiopia and are confronted with the ramifications of a visible minority status in the U.S., it can be expected that they have retained strong ties to their ethnic culture. This study, however, came to a more complex and theory-building result.
This book examines why Japan has one of the highest enrolment rates in cram schools and private tutoring worldwide. It sheds light on the causes of this high dependence on ‘shadow education’ and its implications for social inequalities. The book provides a deep and extensive understanding of the role of this kind of education in Japan. It shows new ways to theoretically and empirically address this issue, and offers a comprehensive perspective on the impact of shadow education on social inequality formation that is based on reliable and convincing empirical analyses.
Contrary to earlier studies, the book shows that shadow education does not inevitably result in increasing or persisting inequalities, but also inherits the potential to let students overcome their status-specific disadvantages and contributes to more opportunities in education. Against the background of the continuous expansion and the convergence of shadow education systems across the globe, the findings of this book call for similar works in other national contexts, particularly Western societies without traditional large-scale shadow education markets. The book emphasizes the importance and urgency to deal with the modern excesses of educational expansion and education as an institution, in which the shadow education industry has made itself (seemingly) indispensable.
This book:
• Is the first comprehensive empirical work on the implications of shadow education for educational and social inequalities.
• Draws on quantitative and qualitative data and uses mixed-methods.
• Has major implications for sociological, international and comparative research on the topic.
• Introduces a general theoretical frame to help future research in approaching this under-theorized field.
Boom in der Krise
(2016)
Über das Verhältnis von Konsum und Individualität.
Konsum, Tourismus, Autofahren - sind die 1970er Jahre mit diesen Schlagworten adäquat beschrieben, oder handelt es sich nicht vielmehr um ein Jahrzehnt der Krisen? Einerseits war der Alltag der westdeutschen und britischen Bevölkerung durch eine kontinuierliche Ausweitung der Konsummöglichkeiten geprägt. Andererseits kommen die Folgen des Ölschocks im Bild der leeren Autobahnen zum Ausdruck. Sina Fabian greift beide Erzählweisen auf und diskutiert die 1970er Jahre im Spannungsverhältnis von Krise und Boom. Sie untersucht den Einfluss von Ölpreis- und Wirtschaftskrisen auf den Tourismus und die PKW-Nutzung als zwei teuren Konsumgütern, die in beiden Ländern gerade während des Untersuchungszeitraums an Bedeutung gewannen. Ebenso fragt sie, inwieweit sich der steigende Konsum tatsächlich als Ausdruck fortschreitender Individualisierung begreifen lässt? Stellen Pauschalreisen und Fließbandprodukte die Individualisierungsthese nicht weit eher in Frage? Anhand unterschiedlicher Quellen, die von statistischen Erhebungen bis hin zu Tagebüchern und Reiseberichten aus der Bevölkerung reichen, relativiert die Autorin herkömmliche Lesarten der inzwischen vielfach historisierten 1970er Jahre.
While children acquire new words and simple sentence structures extremely fast and without much effort, the ability to process complex sentences develops rather late in life. Although the conjoint occurrence between brain-structural and brain-functional changes, the decrease of plasticity, and changes in cognitive abilities suggests a certain causality between these processes, concrete evidence for the relation between brain development, language processing, and language performance is rare. Therefore, the current dissertation investigates the tripartite relationship between behavior (in the form of language performance and cognitive maturation as prerequisite for language processing), brain structure (in the form of gray matter maturation), and brain function (in the form of brain activation evoked by complex sentence processing). Previous developmental studies indicate a missing increase of activation in accordance to sentence complexity (functional selectivity) in language-relevant brain areas in children. To determine the factors contributing to the functional development of language-relevant brain areas, different methodologies and data acquisition techniques were used to investigate the processing of center-embedded sentences in 5- and 6-year-old children, 7- and 8-year-old children, and adults. Behavioral results indicate that children between 5 and 8 years show difficulties in processing double embedded sentences and that their performance for these type of sentences is positively correlated with digit span. In 7- and 8-year-old children, it was found that especially the processing of long-distance relations between the initial phrase and its corresponding verb appears to be associated with the subject’s verbal working memory capacity. In contrast, children’s performance for double embedded sentences in the younger age group positively correlated with their performance in a standardized sentence comprehension test. This finding supports the hypothesis that processing difficulties in this age group may be mainly attributed to difficulties in processing case marking information. These findings are discussed with respect to current accounts of language and working memory development. A second study aimed at investigating the structural maturation of brain areas involved in sentence comprehension. To do this, whole-brain magnetic resonance images from 59 children between 5 and 8 years were collected and children’s gray matter was analyzed by using voxel-based morphometry. Children’s grammatical proficiency was assessed by a standardized sentence comprehension test. A confirmatory factory analysis corroborated a grammar-relevant and a verbal working memory-relevant factor underlying the measured performance. While children’s ability to assign thematic roles is positively correlated with gray matter probability (GMP) in the left inferior temporal gyrus and the left inferior frontal gyrus, verbal working memory-related performance is positively correlated with GMP in the left parietal operculum extending into the posterior superior temporal gyrus. These areas have been previously shown to be differentially engaged in adults’ complex sentence processing. Thus, the findings of the second study suggest a specific correspondence between children’s GMP in language-relevant brain regions and differential cognitive abilities which underlie complex sentence comprehension. In a third study, functional brain activity during the processing of center-embedded sentences was investigated in three different age groups (5–6 years, 7–8 years, and adults). Although all age groups engage a qualitatively comparable network of the left pars opercularis (PO), the left inferior parietal lobe extending into the posterior superior temporal gyrus (IPL/pSTG), the supplementary motor area (SMA) and the cerebellum, functional selectivity of these regions was only observable in adults. However, functional activation of the language-related regions (PO and IPL/pSTG) predicted sentence comprehension performance for all age groups. To solve the question of the complex interplay between different maturational factors, a fourth study analyzed the predictive power of gray matter probability, verbal working memory capacity, and behavioral differences in performance for simple and complex sentence for the functional selectivity of each activated region. These analyses revealed that the establishment of the adult-like functional selectivity for complex sentences is predicted by a reduction of the left PO’s gray matter probability across age groups while that of the IPL/pSTG is additionally predicted by verbal working memory capacity. Taken all findings together, the current thesis provides evidence that both structural brain maturation and verbal working memory expansion provide the basis for the emergence of functional selectivity in language-related brain regions leading to more efficient sentence processing during development.
In freshwater sciences, nitrogen gained increasing attention in the past as an important resource potentially influencing phytoplankton growth and thus eutrophication. Most studies and all management approaches, however, are still restricted to dissolved inorganic nitrogen (DIN = nitrate + nitrite + ammonium) since dissolved organic nitrogen (DON) was considered to be refractory for most of the photoautotrophs. In the meantime this assumption has been disproved for all aquatic systems. While research on DON in marine ecosystems substantially increased, in freshwater a surprisingly small number of investigations has been carried out on DON utilization by phytoplankton or even the occurrence and seasonal development of total DON or its compounds in lakes. Therefore, our present knowledge on DON utilization by phytoplankton is often based on single species experiments using a sole, usually low molecular weight DON component, often in unnaturally high amounts mainly carried out with marine phytoplankton species. Thus, we know that some phytoplankton species can take up different DON fractions if they are available in high concentrations and as sole nitrogen source. This does not necessarily imply that phytoplankton would perform likewise in natural environments. In addition, it will be difficult to draw conclusions on the behavior of freshwater phytoplankton from experiments with marine phytoplankton since the nutrient regime in marine environments differs from that of freshwater. In the light of the parallel availability of inorganic and organic nitrogen species in natural freshwater ecosystems, several questions must be raised: "If inorganic nitrogen is available, would phytoplankton really rely on an organic nitrogen source? Could a connection be detected between the seasonal development of DON and changes in the phytoplankton community composition as found for inorganic nitrogen? And if we reduce the input of inorganic nitrogen in lakes and rivers would the importance of DON as nitrogen source for phytoplankton increase, counteracting all management efforts or even leading to undesired effects due to changes in phytoplankton physiology and biodiversity?" I experimentally addressed the questions whether those DON compounds differentially influence growth, physiology and composition of phytoplankton both as sole available nitrogen source and in combination with other nitrogen compounds. I hypothesized that all offered DON - compounds (urea, natural organic matter (NOM), dissolved free and combined amino acids (DFAA, DCAA)) could be utilized by phytoplankton at natural concentrations. However, I assumed that the availability would decrease with increasing compound complexity. I furthermore hypothesized that the occurrence of low DIN concentrations would not affect the utilization of DON negatively. The nitrogen source, whatsoever, would have an impact on phytoplankton physiology as well as community composition. To investigate these questions and assumptions I conducted bioassays with algae monocultures as well as phytoplankton communities testing the utilization of various DON compounds by several freshwater phytoplankton species. Especially the potential utilization of NOM, a complex DON compound mainly consisting of humic substances is of interest, since it is usually regarded to be refractory. In order to be able to use natural concentrations of DON - compounds for my experiments the concentration of total DON and some DON - compounds (urea, humic substances, heigh molecular weight substances) was assessed in Lake Müggelsee. All compounds were able to support algae growth in the low natural concentrations supplied. However, I found that the offered DON compounds differ in their availability to various algae species, both, as sole nitrogen source or in combination with low DIN concentrations. As expected, the availability decreased with increasing complexity of the nitrogen compound. Furthermore, I could show that changes in algal physiology (nitrogen storage, metabolism) occur depending on the utilized nitrogen source. Especially the secondary photosynthetic pigment composition, heterocyst frequency and C:N - ratio of the algae were affected. The uptake and usage of certain nitrogen compounds might be more costly, potentially resulting in those physiology changes. Whereas laboratory experiments with single species revealed strong effects of DON, algal responses to DON in a multi-species situation remain unclear. Experiments with phytoplankton communities from Lake Müggelsee revealed that the nitrogen pool composition does influence the phytoplankton community structure. The findings furthermore show that several species combined might utilize the supplied nitrogen completely different than monocultures in the laboratory. Thus, besides the actual ability of algae to use the offered nitrogen sources other factors, such as interspecific competition, may be of importance. I further investigated, if the results of the laboratory experiments, can be verified in the field. Here, I surveyed the seasonal development of several dissolved organic matter (DOM) components (urea, high molecular weight substances (HMWS), humic substances (HS)) and associated parameters (Specific UV-absorption (SUVA), C:N - ratio) in Lake Müggelsee between 2011 and 2013. Furthermore, data from the long term measurements series of Lake Müggelsee such as physical (temperature, light, pH, O2) and chemical parameters (nitrogen, phosphorous, silica, inorganic carbon), zooplankton and phytoplankton data were used to investigate how much of the variability of the phytoplankton composition in Lake Müggelsee can be explained by DON/DOM concentration and composition, relative to the other groups of explanatory variables. The results show that DON mainly consists of rather complex compounds such as humic substances and biopolymers (80 %) and that only slight seasonal trends are detectable. Using variance partitioning I could show, that the usually investigated nutrients (DIN, silica, inorganic carbon, phosphorous) and abiotic factors together explain most of the algae composition as was to be expected (57.1 % of modeled variance). However, DOM and the associated parameters uniquely explain 10.3 % of the variance and thus slightly more than zooplankton with 9.3 %. I could therefore prove, that the composition of DOM (nitrogen and carbon) is connected to the algae composition in an eutrophic lake such as Lake Müggelsee. DON - compounds such as urea, however, could not be correlated with the occurrence of specific phytoplankton species. Overall, the results of this study imply that DON can be a valuable nitrogen source for freshwater phytoplankton. DON is used by various species even when DIN is available in low concentrations. Through the reduction of DIN in lakes and rivers, the DON:DIN ratio might be changed, resulting even in an increased importance of DON as phytoplankton nitrogen source. My work suggests that not only N2-fixation but also DON utilization might compensate for reduced N - input. Changes from DIN to DON as main nitrogen source might also promote certain, potentially undesired algae species and influence the biodiversity of a limnic ecosystem through changes in the phytoplankton community structure. Thus, DON, especially urea, should be included in calculations concerning total available nitrogen and when determining nitrogen threshold values. Furthermore, the input-reduction of DON, for example from waste-water treatment plants should also be evaluated and the results of my thesis should find consideration when planning to reduce the nitrogen input in freshwater.
"Der unterirdische Kampf"
(2016)
Die militärische Rüstungsbürokratie zwischen Niederlage des Deutschen Kaiserreiches und ›Totalem Krieg‹ der NS-Diktatur – in dieses Spannungsverhältnis begibt sich der Autor. Er untersucht, wie die Fachleute des Wehrwirtschafts- und Rüstungsamtes die Mobilisierung planten – und dabei scheiterten.
Bereits kurze Zeit nach der deutschen Niederlage von 1918 wurden die wirtschaftlichen Aspekte der Kriegführung wieder von einem kleinen, hochprofessionellen Offizierskreis diskutiert. Sie nahmen Gedanken aus der Zeit des Ersten Weltkrieges auf und forderten in der Reichswehr und noch stärker in der Wehrmacht die Steuerungshoheit des Militärs über die kriegsrelevante Wirtschaft. Ihre Planungen und Maßnahmen waren nicht nur im Offizierkorps selbst umstritten, sondern unterlagen letztlich auch den Widerständen der Privatwirtschaft und den Interessen von NS-Parteigrößen. Entlang dieser Fronten beschreibt der Autor eine militärische Organisation von ihrem Aufbau 1924 bis zu ihrer ›Zerschlagung‹ durch Albert Speer 1942. Dabei nimmt er auch das alles andere als eindeutige Verhalten des Führungspersonals im Amt in den Blick.
Das Buch befasst sich mit der Frage, ob und wie international tätige Unternehmen europäische Auslandsverluste bei der inländischen Besteuerung geltend machen können. Im Mittelpunkt der rechtlichen Auseinandersetzung steht die Rechtsprechungsentwicklung des EuGH seit der Rechtssache Marks & Spencer. Mit zunehmender Anzahl an Gerichtsentscheidungen wurde die grenzüberschreitende Verlustverrechnung im Rahmen der 'finalen Verluste' Gegenstand intensiver und kontroverser Rechtsdiskussion. Die vorliegende Arbeit nimmt eine kritische Bestandsaufnahme des nationalen Steuerrechts vor. Dabei untersucht der Autor, welche Folgen mit der EuGH-Rechtsprechung einhergehen und welche Lösungsansätze einen gangbaren Weg ebnen könnten, um dem Europäischen Gedanken eines gemeinsamen Binnenmarkts gerecht zu werden.
Homo academicus goes Pop
(2016)
Mit (wissens-)soziologischen, komparatistisch-historischen sowie textanalytischen Mitteln erörtert die Autorin in diesem Buch zunächst die Genese und Struktur des populärwissenschaftlichen Feldes im internationalen Vergleich. Ausgehend von literatur- und texttheoretischen Ausführungen zu unterschiedlichen nationalen Genres des populärwissenschaftlichen Schreibens und zur Theorie des Popularisierens im Allgemeinen untersucht sie darauf folgend im Kontext der historischen Disziplingenese der Biologie anhand ausgewählter Akteure der Genetik, Epigenetik, Sociobiology und Evolutionary Psychology die intellektuellen Netzwerke und ihre Textproduktion. Schließlich avanciert die fiktionale Erzählliteratur selbst zur Kritikerin lebenswissenschaftlicher Ideologien und Theorien.
Anhand ausgewählter literarischer Werke des 20. und 21. Jahrhunderts werden die Wechselbeziehungen zwischen fiktionaler Erzählliteratur und nicht-fiktionaler Sachbuchliteratur untersucht.
Die Autorin geht der Frage nach, auf welche Art und Weise Alltagsund Wissenschaftssprache in der Literatur miteinander interagieren und eine immanente Ideologiekritik spekulativer Theoriebildung des Popular Science Writing initiieren.
Dieses Buch richtet sich an Geistes- und Sozialwissenschaftler, die das wissenschaftspolitische Programm der »Literaturwissenschaft als Lebenswissenschaft« (O. Ette) in anwendungsorientierten Forschungskontexten erprobt wissen wollen. Mit seinen polemischkritischen Thesen und einem selbstreflexiv-ironischen Schreibstil facht es das Gespräch über Populärwissenschaften weiter an: Es ist das Populäre, das sich quer über die sozialen Felder legt und der »illusio« (P. Bourdieu) des akademischen Textspiels neue Wege eröffnet.
The impact of soil microbiota on plant species performance and diversity in semi-natural grasslands
(2016)
Ephraim Carlebach
(2016)
Nathalie Hirschmann geht der Frage nach, auf welche Weise sich die Sicherheitswirtschaft im System der Sicherheit zu etablieren sucht und wie erfolgreich ihr dies gelingt. Ihre Analyse verdeutlicht, wie Schmuddelimage und begrenzte Kompetenzzuschreibung der Branche einerseits erschweren, neben der Polizei als institutionelle Trägerin der öffentlichen Sicherheit zu bestehen, und andererseits, gegenüber dem Kunden bzw. Auftraggeber in ein professionelleres Gefüge zu treten. Einen inhaltsanalytisch theoriegeleiteten, soziologisch-konzeptionellen Blick einnehmend wird deutlich, welche Ausbaubestrebungen kognitiver und sozialer Art die Sicherheitswirtschaft vorgenommen hat und wo diese an ihre Grenzen stoßen.
Generation im Übergang
(2016)
Thema dieses Buches ist die Umsatzsteuerorganschaft, die als ein Relikt der Bruttoallphasenumsatzsteuer heute nur der Verwaltungsvereinfachung dienen soll. Die steigende Zahl an höchstrichterlichen Entscheidungen zu ihrer Anwendung deutet jedoch schon an, dass sie mehr als nur eine Verwaltungsvereinfachung für die Betroffenen bereithält. Der Autor analysiert anhand der systematischen Stellung und der historischen Entwicklung die heutige Anwendung der Umsatzsteuerorganschaft im nationalen Recht. Ziel der Analyse ist, die einzelnen Merkmale mit einem konsistenten Definitionsinhalt zu versehen, auch vor dem Hintergrund der MwStSystRL. Hieraus lassen sich schließlich ihre Bedeutungen ableiten, insbesondere auch im Rahmen eines Insolvenzverfahrens.
Seit Jahren steigen Politikverdrossenheit und die Zahl der Menschen an, die sich von der Gesellschaft exkludiert fühlen. Können Basisaktivierung durch Quartiersmanagement und Community Organizing diesen Trends entgegenwirken? Fördert die Ermöglichung der gesellschaftlichen Teilhabe von benachteiligten Bevölkerungsgruppen die Sozialkapitalbildung im Sinne Putnams? Um diese Fragen zu beantworten, wurden die vorhandene Literatur analysiert und zahlreiche Experteninterviews geführt.
Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem. Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet.
Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen:
> Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben. Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar. Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden. Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen. Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen
>Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen. Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert.
Gregor Imelauer untersucht, wie vor dem Hintergrund von Globalisierung, Digitalisierung und Hyperspezialisierung eine wettbewerbsfähige HR-Organisation aussehen kann. Er zeigt, wie sich die Personalauswahl als einer der personalwirtschaftlichen Kernprozesse intelligent sourcen lässt, so dass nicht nur Kostenkriterien, sondern auch langfristig-strategische Implikationen Berücksichtigung finden. Grundlage der Untersuchung bilden 15 Interviews mit Top-Managern aus dem Personalwesen deutscher Großunternehmen sowie mit namhaften Organisationsberatern. Der Autor erarbeitet kritische Erfolgsfaktoren und konkrete Handlungsempfehlungen für das Sourcing personalwirtschaftlicher Prozesse und eine Personalarbeit im Netzwerk.
Ikonische Macht
(2016)
Bilder sind Teil der medialen Öffentlichkeit. Sie konstruieren Gesellschaft. Wie machtvoll sind sie? Die Studie analysiert die soziale Gestaltung von Pressefotografien in Tageszeitungen. In Feininterpretationen werden die gestalterischen Routinen der Redaktionen nachgezeichnet. Zudem wird gezeigt, wie bei der Veröffentlichung um die Auslegung der Bilder gerungen wird. Die Autorin entwickelt die qualitative Bildanalyse innovativ weiter und liefert zugleich einen eigenständigen Beitrag zur Diskussion der ,Macht der Bilder‘.
Konzessionen (auch: Zugeständnisse) spielen in Einkäufer-Zulieferer-Verhandlungen eine entscheidende Rolle, weil die beteiligten Verhandlungsparteien in der Regel nur über Konzessionen, das heißt über eine Abfolge von entgegenkommenden Angeboten, zu einem von beiden Seiten akzeptierten Verhandlungsergebnis kommen. Da Verhandelnde mit der Abgabe von eigenen Konzessionen jedoch einen Teil ihrer individuellen Verhandlungsmasse hergeben und durch Konzessionen des Gegenübers einen Teil zu ihrer Verhandlungsmasse dazu gewinnen können, beeinflussen Konzessionen maßgeblich die Verhandlungsperformance von Verhandelnden. Diese wiederum hat nachweislich einen Einfluss auf die Profitabilität von Unternehmen.
Vor diesem Hintergrund ist es sowohl für die Verhandlungsforschung als auch für die Verhandlungspraxis von Interesse, zu untersuchen, wann und wie Verhandelnde Konzessionen in Verhandlungen machen sollten, um die eigene Verhandlungsperformance zu optimieren. Im Rahmen der vorliegenden Untersuchung widmet sich die Autorin dieser Fragestellung, indem sie erstens (1) untersucht, ob Verhandelnde die erste Konzession in einer Verhandlung machen sollten, zweitens (2) analysiert, nach welchem Konzessionsmuster Verhandelnde verhandeln sollten und drittens (3) die Vorteilhaftigkeit der Abgabe von Konzessionen in Form von Paketangeboten in Verhandlungen mit mehreren Verhandlungsgegenständen (z. B. Preis, Menge und Lieferkonditionen) ermittelt. Mit der Bearbeitung dieser Teilfragestellungen schließt die Autorin zum einen Lücken in der Verhandlungsforschung und zum anderen leitet sie relevante Implikationen für ein systematisches Konzessionsmanagement in der Verhandlungspraxis ab.
Denise Klinge untersucht anhand von 25 narrativen Interviews, die mittels der qualitativen Inhaltsanalyse und der dokumentarischen Methode ausgewertet wurden, wie bei der Sekundarschulwahlentscheidung der Eltern für ihre Kinder habituelles und rationales Wählen nach Wert-Erwartungstheorien zusammenhängen. Die Autorin konzentriert sich damit auf die elterliche Übergangsentscheidung als eine Einflussgröße sozialer Bildungsungleichheit. Mit der empirischen Integration beider Theoriestränge (Habitustheorie und Wert-Erwartungstheorien), zeigt Denise Klinge zum einen mögliche Erweiterungen der Mechanismen primärer und sekundärer Herkunftseffekte und Komponenten der Wert-Erwartungstheorien auf. Zum anderen konnten unterschiedliche habituelle Entscheidungstypen rekonstruiert werden, welche tiefere Einblicke in das Entscheidungsverhalten geben.
Was und von wem wurde mit wissenschaftlichem Anspruch während des ersten Drittels des 20. Jahrhunderts über Antisemitismus in Deutschland gearbeitet und geschrieben? Welche Ansätze bot die frühe Antisemitismusforschung? Das sind die Leitfragen dieser Studie, die ein Stück Kulturund Wissenschaftsgeschichte zugleich bietet. Darüber hinaus schlägt das Buch einen Bogen zur Geschichte des Abwehrkampfs gegen den Antisemitismus bis 1933. Das Fazit: Bereits in der Weimarer Republik existierte ein tiefergehendes Wissen über den Antisemitismus, das jedoch für den Abwehrkampf gegen antisemitische und völkische Bewegungen wenig Perspektiven bieten konnte.
Die "Europäisch-jüdischen Studien" repräsentieren die interdisziplinär vernetzte Kompetenz des neuen "Zentrums Jüdische Studien Berlin-Brandenburg" (ZJS). Das Zentrum versammelt die wichtigsten Institutionen dieser Region, die sich mit Jüdischen Studien befassen - darunter die einschlägigen Universitäten und Einrichtungen in Berlin und Potsdam. Der interdisziplinäre Charakter der Reihe zielt insbesondere auf geschichts-, geistes- und kulturwissenschaftliche Ansätze sowie auf intellektuelle, politische und religiöse Grundfragen, die jüdisches Leben und Denken heute inspirieren und in der Vergangenheit beeinflusst haben. In den BEITRÄGEN werden exzellente Monographien und Sammelbändezum gesamten Themenspektrum Jüdischer Studien veröffentlicht. Die Reihe ist peer-reviewed. In den KONTROVERSEN werden grundlegende Debatten aufgenommen, die von zeitgenössischer und publizistischer Relevanz sind. Die Reihe ist peer-reviewed. In den EDITIONEN werden Werke herausragender jüdischer Autoren neu aufgelegt.
In the first part of my work I have investigated the ageing properties of the first passage time distributions in a one-dimensional subdiffusive continuous time random walk with power law distributed waiting times of the form $\psi(\tau) \sim \tau^{-1-\alpha}$ with $0<\alpha<1$ and $1<\alpha<2$. The age or ageing time $t_a$ is the time span from the start of the stochastic process to the start of the observation of this process (at $t=0$). I have calculated the results for a single target and two targets, also including the biased case, where the walker is driven towards the boundary by a constant force. I have furthermore refined the previously derived results for the non-ageing case and investigated the changes that occur when the walk is performed in a discrete quenched energy landscape, where the waiting times are fixed for every site. The results include the exact Laplace space densities and infinite (converging) series as exact results in the time space. The main results are the dominating long time power law behavior regimes, which depend on the ageing time. For the case of unbiased subdiffusion ($\alpha < 1$) in the presence of one target, I find three different dominant terms for ranges of $t$ separated by $t_a$ and another crossover time $t^{\star}$, which depends on $t_a$ as well as on the anomalous exponent $\alpha$ and the anomalous diffusion coefficient $K_{\alpha}$. In all three regimes ($t \ll t_a$, $t_a \ll t \ll t^{\star}$, $t \gg t^{\star}$) one finds power law decay with exponents depending on $\alpha$. The middle regime only exists for $t_a \ll t^{\star}$. The dominant terms in the first two regimes (ageing regimes) come from the probability distribution of the forward waiting time, the time one has to wait for the stochastic process to make the first step during the observation. When the observation time is larger than the second crossover time $t^{\star}$, the first passage time density does not show ageing and the non-ageing first passage time dominates. The power law exponents in the respective regimes are $-\alpha$ for strong ageing, $-1-\alpha$ in the intermediate regime, and $-1-\alpha/2$ in the final non-ageing regime. A similar split into three regimes can be found for $1<\alpha<2$, only with a different second crossover time $t^*$. In this regime the diffusion is normal but also age-dependent. For the diffusion in quenched energy landscapes one cannot detect ageing. The first passage time density shows a quenched power law $^\sim t^{-(1+2\alpha)/(1+\alpha)}$. For diffusion between two target sites and the biased diffusion towards a target only two scaling regimes emerge, separated by the ageing time. In the ageing case $t \ll t_a$ the forward waiting time is again dominant with power law exponent $-\alpha$, while the non-ageing power law $-1-\alpha$ is found for all times $t \gg t_a$. An intermediate regime does not exist. The bias and the confinement have similar effects on the first passage time density. For quenched diffusion, the biased case is interesting, as the bias reduces correlations due to revisiting of the same waiting time. As a result, CTRW like behavior is observed, including ageing. Extensive computer simulations support my findings.
The second part of my research was done on the subject of ageing Scher-Montroll transport, which is in parts closely related to the first passage densities. It explains the electrical current in an amorphous material. I have investigated the effect of the width of a given initial distribution of charge carriers on the transport coefficients as well as the ageing effect on the emerging power law regimes and a constant initial regime. While a spread out initial distribution has only little impact on the Scher-Montroll current, ageing alters the behavior drastically. Instead of the two classical power laws one finds four current regimes, up to three of which can appear in a single experiment. The dominant power laws differ for $t \ll t_a, t_c$, $t_a \ll t \ll t_c$, $t_c \ll t \ll t_a$, and $t \gg t_a,t_c$. Here, $t_c$ is the crossover time of the non-aged Scher-Montroll current. For strongly aged systems one can observe a constant current in the first regime while the others are dominated by decaying power laws with exponents $\alpha -1$, $-\alpha$, and $-1-\alpha$. The ageing regimes are the 1st and 3rd one, while the classical regimes are the 2nd and the 4th. I have verified the theory using numerical integration of the exact integrals and applied the new results to experimental data.
In the third part I considered a single file of subdiffusing particles in an energy landscape. Every occupied site of the landscape acts as a boundary, from which a particle is immediately reflected to its previous site, if it tries to jump there. I have analysed the effects single-file diffusion a quenched landscape compared to an annealed landscape and I have related these results to the number of steps and related quantities. The diffusion changes from ultraslow logarithmic diffusion in the annealed or CTRW case to subdiffusion with an anomalous exponent $\alpha/(1+\alpha)$ in the quenched landscape. The behavior is caused by the forward waiting time, which changes drastically from the quenched to the annealed case. Single-file effects in the quenched landscape are even more complicated to consider in the ensemble average, since the diffusion in individual landscapes shows extremely diverse behavior. Extensive simulations support my theoretical arguments, which consider mainly the long time evolution of the mean square displacement of a bulk particle.
Der Gewinnabführungsvertrag hat wegen der körperschaftsteuerrechtlichen Organschaft (§§ 14 ff. KStG) eine hohe praktische Relevanz und ist fortwährend Inhalt rechtswissenschaftlicher Abhandlungen und höchstrichterlicher Entscheidungen. Er durchbricht das System der Finanzverfassung der abhängigen Gesellschaft, denn durch ihn verpflichtet sich die gewinnabführende Gesellschaft, ihren ganzen Gewinn an ein anderes Unternehmen abzuführen.
Für die Aktiengesellschaft und die Kommanditgesellschaft auf Aktien ist der Gewinnabführungsvertrag gesetzlich geregelt und damit Gegenstand vielfältiger Kommentarliteratur. Hier existieren nur sehr wenige offene Fragen. Indes ist eine gesetzliche Regelung für die GmbH bislang unterblieben. Eine ganz entscheidende Rolle spielen seine gesellschafts- und gläubigerschützenden Normen. Insbesondere sieht das AktG die Verlustausgleichspflicht nach § 302 Abs. 1 AktG vor. Sie verpflichtet das gewinnempfangende Unternehmen, jeden während der Vertragsdauer sonst entstandenen Jahresfehlbetrag der verpflichteten Gesellschaft auszugleichen.
Das Werk „Der Gewinnabführungsvertrag in der GmbH“ beschäftigt sich mit dem isolierten Gewinnabführungsvertrag mit einer GmbH als verpflichteter Gesellschaft. Es geht schwerpunktmäßig der Frage nach, ob die aktienrechtliche Verlustausgleichspflicht auch für den Gewinnabführungsvertrag in der GmbH gelten muss. Dabei werden im Einzelnen verschiedene Begründungsansätze für die analoge Anwendung von § 302 AktG auf die GmbH überprüft, die Grundlagen des Gewinnabführungsvertrages vermittelt, dessen Wirkungen auf die Parteien, dessen Rechtsnatur und das Normengefüge sowie dessen Voraussetzungen in der GmbH. Zudem werden historische Zusammenhänge aufgezeigt.
Bei der Erörterung der zentralen Frage, ob die Verlustausgleichspflicht auch für den Gewinnabführungsvertrag in der GmbH gelten muss, geht die Arbeit auf die jeweiligen Gemeinsamkeiten und Unterschiede des Kapitalschutzes im Aktien- und GmbH-Recht ein, klärt die Ursachen für das Unbehagen über den Gewinnabführungsvertrag und findet entsprechende Lösungen für den Schutz der abhängigen Gesellschaft.
E-Learning-Anwendungen bieten Chancen für die gesetzlich vorgeschriebene Inklusion von Lernenden mit Beeinträchtigungen. Die gleichberechtigte Teilhabe von blinden Lernenden an Veranstaltungen in virtuellen Klassenzimmern ist jedoch durch den synchronen, multimedialen Charakter und den hohen Informationsumfang dieser Lösungen kaum möglich.
Die vorliegende Arbeit untersucht die Zugänglichkeit virtueller Klassenzimmer für blinde Nutzende, um eine möglichst gleichberechtigte Teilhabe an synchronen, kollaborativen Lernszenarien zu ermöglichen. Im Rahmen einer Produktanalyse werden dazu virtuelle Klassenzimmer auf ihre Zugänglichkeit und bestehende Barrieren untersucht und Richtlinien für die zugängliche Gestaltung von virtuellen Klassenzimmern definiert. Anschließend wird ein alternatives Benutzungskonzept zur Darstellung und Bedienung virtueller Klassenzimmer auf einem zweidimensionalen taktilen Braille-Display entwickelt, um eine möglichst gleichberechtigte Teilhabe blinder Lernender an synchronen Lehrveranstaltungen zu ermöglichen. Nach einer ersten Evaluation mit blinden Probanden erfolgt die prototypische Umsetzung des Benutzungskonzepts für ein Open-Source-Klassenzimmer. Die abschließende Evaluation der prototypischen Umsetzung zeigt die Verbesserung der Zugänglichkeit von virtuellen Klassenzimmern für blinde Lernende unter Verwendung eines taktilen Flächendisplays und bestätigt die Wirksamkeit der im Rahmen dieser Arbeit entwickelten Konzepte.
Das Buch richtet den Blick auf die zahllosen immer schon in Derridas Grammatologie. Dadurch wird die Strategie der Schrifttheorie ihrer eigenen Initialisierung unterstellt.
Auf dem vom immer schon abgesteckten Zickzackparcours durch die abendländische Metaphysikgeschichte wird das Kalkül der grammatologischen Begründungspraxis gegen sich selbst in Stellung gebracht. Das Experiment ist riskant, verführt das immer schon doch zu einem Vergleich der grammatologischen Ursprungsgenese mit jener in der jüdischen Schrifttradition. Eine beiläufige Bemerkung Derridas über Moses Mendelssohn ermöglicht das Auslesen einer Spur, die hinter die Grenzposten der griechischen Philosophie führt. Dabei treten bemerkenswerte Analogien zwischen dem Schriftbegriff Derridas und in dem jüdischen Schrifttradition hervor: das Verhältnis von Mündlichkeit und Schriftlichkeit sowie die in dieser Relation zum Tragen kommende Vorstellung einer Schrift, die älter ist als die Schrift selbst - einer Schrift.
Die Bedeutung von Infrastrukturprojekten ist in der jüngeren Vergangenheit verstärkt in den Fokus des Gesetzgebers gerückt. Dieser ist in den letzten Jahren mehrfach grundlegend auf dem Gebiet des Investment- und Investmentsteuerrechts tätig geworden. Insbesondere die letzten Änderungen durch das AIFM-StAnpG als Anpassung steuerrechtlicher Vorschriften an die deutsche Umsetzung der AIFM-Richtlinie haben wieder Auswirkungen auf Infrastrukturinvestments. Die Untersuchung befasst sich zunächst mit dem Infrastrukturbegriff in Zusammenhang mit Infrastrukturinvestments und diskutiert sodann die steuerliche Behandlung von Anlegern solcher Infrastrukturinvestments unter besonderer Berücksichtigung des InvStG in der Fassung des AIFM-StAnpG. Dabei erfolgt die Betrachtung anhand von Infrastrukturfonds.
Gerät eine GmbH in eine finanzielle Krise, zeigen sich die Nachteile der beschränkten Haftung: Der GmbH wird ein Bankkredit oftmals versagt. Nicht selten besteht die einzige Möglichkeit darin, der Gesellschaft Kapital durch Gesellschafterdarlehen zuzuführen. Fordern die Gesellschafter später ihre Darlehen zurück und befindet sich die Gesellschaft noch in der Krise, ist die Rückzahlung für den Geschäftsführer mit erheblichen zivilrechtlichen und strafrechtlichen Risiken verbunden. Der Autor beleuchtet in der Publikation zum einen die zivilrechtliche Haftungsproblematik, insbesondere in Bezug auf § 64 GmbHG. Das Hauptaugenmerk legt der Autor auf die strafrechtlichen Risiken und untersucht die Frage, unter welchen Voraussetzungen sich der Geschäftsführer bei der Rückzahlung von Gesellschafterdarlehen wegen Untreue gemäß § 266 StGB strafbar macht. Dabei wird unter anderem untersucht, ob § 64 GmbH als pflichtwidrigkeitsbegründende Norm im Rahmen des § 266 StGB herangezogen werden kann. Vertieft geht der Autor auch der Frage nach, ob die Strafbarkeit des Geschäftsführers wegen eines Einverständnisses der Gesellschafter entfallen kann. Alle untersuchenden Fragen werden dabei stets an dem Präzisionsgebot gemessen, das das Bundesverfassungsgericht im Hinblick auf die Verfassungsmäßigkeit des Untreuetatbestandes entwickelt hat.
Changes in extratropical storm track activity and their implications for extreme weather events
(2016)
Der Patriotismus gehört in der zweiten Hälfte des 18. Jahrhunderts zu den zentralen Themen der bürgerlichen Schichten im Europa der Aufklärung. In den Grenzen der Alten Eidgenossenschaft sticht dabei die Helvetische Gesellschaft heraus, eine Sozietät, die in einem Zeitraum von fast vierzig Jahren über Themen wie Freiheit, Bildung, Tugend und eben Vaterlandliebe debattierte.
Die vorliegende Untersuchung unterzieht die schriftlichen Zeugnisse dieser Debatten und andere eidgenössische Schriften jener Zeit einer Vokabularanalyse, einer neuartigen Textanalyse, die eine Annäherung an den Sprachgebrauch dieser Epoche erlaubt. Dabei steht das Vokabular der Vaterlandsliebe im Mittelpunkt, welches in den einzelnen Texten in ganz unterschiedlicher Weise Verwendung gefunden hat. Durch diese Analyseform ist es möglich, erste Antworten auf zentrale Fragen der Ideengeschichte zu formulieren – ob etwa ein Autor in einer Textpassage ein ganz bestimmtes Wort, einen wohldefinierten Begriff verwendet hat, den ein anderer Autor im selben Zusammenhang bewusst vermieden hat.
Anhand der in dieser Untersuchung entwickelten Vokabularanalyse wird es darüber hinaus möglich, der Frage nachzugehen, ob die Begriffe Patriotismus und Vaterlandsliebe, wie sie in der Forschung verwendet werden, den Intentionen der zeitgenössischen Autoren gerecht werden. Mit der Methode der Vokabularanalyse wird dem Historiker somit ein Instrument in die Hände gelegt, auf spezifische Weise die Absichten eines einzelnen Autors einer vergangenen Epoche durch den Vergleich mit anderen Autoren näher zu ergründen.
Ivo Lormes zeigt, dass der Kommunalisierungstrend in der
Energieversorgung als Indikator eines zukunftsgerichteten Zeitalterskommunal(-energie-)wirtschaftlicher Betätigung gedeutet werden kann.
Die sich dabei manifestierende neue Qualität institutioneller Arrangements interpretiert er als Indiz für eine ‚Gewährleistungskommune 2.0‘. Neben einer Analyse der seit 2005 in Deutschland erfolgten Stadtwerke-Gründungen werden in seinem Buch erstmals die im Rahmen dieser Kommunalisierungen ablaufenden politischen Prozesse fallstudienvergleichend untersucht. Dadurch wird eine systematische Ermittlung der Einflussfaktoren zu der Frage ermöglicht, warum manche Kommunen ihre Energieversorgung kommunalisieren und andere nicht.
Leuchtkäfer & Orgelkoralle
(2016)
Leuchtende Käfer und Medusen, phosphoreszierende Meereswellen oder zu Stein erstarrende Korallen faszinierten den bisher vornehmlich als Dichter portraitierten Naturforscher Adelbert von Chamisso (1781–1838). Intensiver noch als den zoologischen und geologischen Phänomenen widmete er sich der Scientia amabilis – der liebenswerten Wissenschaft von den Pflanzen. Der vielseitig Talentierte verfasste seine Reise um die Welt (1836), die bis heute als eine der stilistisch anspruchvollsten und lesenswertesten Reisebeschreibungen gilt. Diese Studie widmet sich dezidiert den naturkundlichen Forschungen Chamissos im Kontext der dreijährigen Rurik-Expedition sowie den zugehörigen Textproduktionen. Mit einem umfassenden Text- und Materialkorpus werden literatur- und kulturwissenschaftliche sowie wissenschaftshistorische Fragestellungen an das Werk gelegt und ertragreich beantwortet. Für die Reiseliteraturforschung wird bisher unbeachtetes Quellenmaterial ans Licht gebracht, gängige Thesen werden widerlegt, Quellen anderer Besatzungsmitglieder vergleichend betrachtet. Die Studie stellt den Naturforscher Chamisso in den Fokus, ohne den Dichter auszublenden, und widmet sich Fragen der Generierung, Vernetzung und Darstellung naturkundlichen Wissens in Texten, Illustrationen und Materialien zur Expedition – sie ist insgesamt für die Literatur- und Geschichtswissenschaft ebenso innovativ wie für die interdisziplinäre Geschichte des Wissens.