Refine
Has Fulltext
- no (186) (remove)
Year of publication
- 2016 (186) (remove)
Document Type
- Doctoral Thesis (186) (remove)
Is part of the Bibliography
- yes (186)
Keywords
- Antidepressiva (1)
- Antipsychotika (1)
- Arbeitsgedächtniss (1)
- Avantgarde (1)
- Bildungsentscheidungen (1)
- Bildungsungleichheit (1)
- DON (1)
- Demenz (1)
- Deutsch als Zweitsprache (1)
- Deutsches Judentum (1)
Institute
- Institut für Biochemie und Biologie (45)
- Institut für Chemie (15)
- Historisches Institut (13)
- Institut für Ernährungswissenschaft (12)
- Wirtschaftswissenschaften (12)
- Institut für Geowissenschaften (11)
- Institut für Informatik und Computational Science (10)
- Institut für Physik und Astronomie (9)
- Institut für Germanistik (8)
- Sozialwissenschaften (8)
Der junge Habermas
(2016)
Roman Yos' Untersuchung über die Ursprünge eines der einflussreichsten Werke der jüngeren Geistesgeschichte zeigt auf originelle Weise, wie Jürgen Habermas seine bereits in jungen Jahren ausgeprägten philosophisch-politischen Denkmotive allmählich in die Bahnen eines tragfähigen Systems überführte. Diese Entwicklung lässt sich als ein Lernprozess begreifen, in dessen Verlauf konträre intellektuelle Einflüsse aufeinandertrafen und der aufwändigen Vermittlung bedurften. Yos rekonstruiert die spannungsreiche Entstehung von Habermas‘ Denken aus dem Zusammenhang frühester Schriften und gibt zugleich einen Einblick in deren zeit- und ideengeschichtliche Hintergründe.
In Gelehrte – Republik – Gelehrtenrepublik untersucht Marc Banditt die Eigenheiten aufklärerischer Tendenzen der Stadt Danzig. Deren Nukleus bildete die zur Jahreswende 1742/43 gegründete Naturforschende Gesellschaft, einer der am längsten existierenden privaten Zusammenschlüsse auf diesem Gebiet. Der strukturelle Wandel dieser Sozietät in den ersten knapp 80 Jahren ihres Bestehens wird dabei als die Summe einer Vielzahl von ineinandergreifenden Entwicklungssträngen verstanden, die die voranschreitende gesellschaftliche Durchdringung der Aufklärungsideen und -inhalte im Laufe des 18. Jahrhunderts kennzeichneten. Trotz der Kräfteverschiebungen in Nordosteuropa, die in Gestalt der Teilungen Polen-Litauens der autonomen Stellung der Hansestadt im Jahr 1793 ein Ende bereiteten, offenbart sich, dass die Geschichte des Danziger Naturforscherzirkels mehr Kontinuitäten als Brüche aufweist. Sowohl auf lokaler als auch auf transregionaler Ebene generierte sich die Vereinigung als eine elementare Schnittstelle zwischenmenschlicher Beziehungen, die von familiären Verflechtungen, weitreichenden Gelehrtennetzwerken und patronalen Abhängigkeitsverhältnissen geprägt waren. Auf diese Weise verkörperte die Naturforschende Gesellschaft zum einen den Aufklärungsprozess innerhalb der Stadt Danzig und zum anderen deren Stellenwert als ein wissenschaftlicher Standort im damaligen Europa.
This book provides for an extensive legal analysis of the international drug control system in light of the growing challenges and criticism that this system faces. In the current debate on global drug policy, the central pillars of the international drug control system – the UN Drug Conventions as well as its institutions – are portrayed as outdated, suppressive and seen as an obstacle to necessary changes. The book’s objective is to provide an in-depth and positivist insight into drug control’s present legal framework and thus provide for a better understanding of the normative assumptions upon which drug control is currently based. This is attained by clarifying the objectives of the international drug control system and the premises by which these objectives are to be achieved.
The objective of the current global framework of international drug control is the limitation of drugs to medical and scientific purposes. The meaning of this objective and its concrete implications for States’ parties as well as its problems from the perspective of other regimes of international law, most notably international human rights law, are extensively analysed. Additionally, the book focuses on how the international drug control system attempts to reach the objective of confining drugs to medical and scientific purposes, i.e. by setting up a universal system that exercises a rigid control on drug supply. The consequences of this heavy focus on the reduction of drug supply are outlined, and the book concludes by making suggestions on how the international drug control system could be reformed in the near future in order to better meet the existing challenges.
The analysis occurs from a general international law perspective. It aims to map the international drug control system within a wider context of international law and to understand whether the problems that the international drug control system faces are exemplary for the difficulties that institutionalized systems of global scope face in the twenty-first century.
Der gedachte Krieg
(2016)
Wie ein Damoklesschwert schwebte während des Ost-West-Konflikts die Möglichkeit einer offenen militärischen Auseinandersetzung mit den Streitkräften des Warschauer Pakts über dem "Frontstaat" Bundesrepublik Deutschland. Angesichts dieser permanenten Bedrohung wurde die Bundeswehrführung ständig mit der Frage nach dem Kriegsbild konfrontiert. Florian Reichenberger geht der Entwicklung von Kriegsbildern in der militärischen Führung der Bundeswehr im Zeitalter des Ost-West-Konflikts auf den Grund. Dabei werden Perzeptionsverläufe von einem möglichen "Dritten Weltkrieg" in den vielfältigen Wechselbeziehungen zu Politik, Gesellschaft, Wirtschaft, Wissenschaft und Technik beleuchtet. In einem interdisziplinären, epochenübergreifenden und zwischen den Teilstreitkräften vergleichenden Ansatz fragt der Autor nach Einheitlichkeit, Kontinuität und Wandel sowie Interessenleitung in den Denkmustern der westdeutschen Militärelite. Die Theorie zum Phänomen Kriegsbild bildet dabei den methodischen Rahmen.
"Der unterirdische Kampf"
(2016)
Die militärische Rüstungsbürokratie zwischen Niederlage des Deutschen Kaiserreiches und ›Totalem Krieg‹ der NS-Diktatur – in dieses Spannungsverhältnis begibt sich der Autor. Er untersucht, wie die Fachleute des Wehrwirtschafts- und Rüstungsamtes die Mobilisierung planten – und dabei scheiterten.
Bereits kurze Zeit nach der deutschen Niederlage von 1918 wurden die wirtschaftlichen Aspekte der Kriegführung wieder von einem kleinen, hochprofessionellen Offizierskreis diskutiert. Sie nahmen Gedanken aus der Zeit des Ersten Weltkrieges auf und forderten in der Reichswehr und noch stärker in der Wehrmacht die Steuerungshoheit des Militärs über die kriegsrelevante Wirtschaft. Ihre Planungen und Maßnahmen waren nicht nur im Offizierkorps selbst umstritten, sondern unterlagen letztlich auch den Widerständen der Privatwirtschaft und den Interessen von NS-Parteigrößen. Entlang dieser Fronten beschreibt der Autor eine militärische Organisation von ihrem Aufbau 1924 bis zu ihrer ›Zerschlagung‹ durch Albert Speer 1942. Dabei nimmt er auch das alles andere als eindeutige Verhalten des Führungspersonals im Amt in den Blick.
Die "Europäisch-jüdischen Studien" repräsentieren die interdisziplinär vernetzte Kompetenz des neuen "Zentrums Jüdische Studien Berlin-Brandenburg" (ZJS). Das Zentrum versammelt die wichtigsten Institutionen dieser Region, die sich mit Jüdischen Studien befassen - darunter die einschlägigen Universitäten und Einrichtungen in Berlin und Potsdam. Der interdisziplinäre Charakter der Reihe zielt insbesondere auf geschichts-, geistes- und kulturwissenschaftliche Ansätze sowie auf intellektuelle, politische und religiöse Grundfragen, die jüdisches Leben und Denken heute inspirieren und in der Vergangenheit beeinflusst haben. In den BEITRÄGEN werden exzellente Monographien und Sammelbändezum gesamten Themenspektrum Jüdischer Studien veröffentlicht. Die Reihe ist peer-reviewed. In den KONTROVERSEN werden grundlegende Debatten aufgenommen, die von zeitgenössischer und publizistischer Relevanz sind. Die Reihe ist peer-reviewed. In den EDITIONEN werden Werke herausragender jüdischer Autoren neu aufgelegt.
Klingende Eklats
(2016)
Der klingende Eklat ist mehr als der Pfeffer musikhistorischer Narrationen. Vielmehr ist der Musikskandal ein kultureller Störfall und ein ästhetisches Ereignis. Er überschreitet nicht nur die künstlerischen und moralischen Grenzen des guten Tons, sondern greift zudem gesellschaftliche Normen auf und an.
Anna Schürmer analysiert diese Verschränkung und nutzt das interdisziplinäre Potential, das der klingende Eklat als konfliktiver Seismograf sozialer Problem- wie ästhetischer Experimentierfelder bereithält. An der Schnittstelle von Geschichts- und Musikwissenschaften fokussiert die medienkulturwissenschaftlich inspirierte Studie den prismatischen Gegenstand des klingenden Eklats vor dem akustischen Hintergrund nicht nur der musikalischen Moderne.
Nachdem der Sicherheitsdienst der SS 1934 zum einzigen politischen Nachrichtendienst der NSDAP aufgestiegen war, entwickelten seine führenden Mitarbeiter ein ehrgeiziges Konzept zur Erfassung, Bewertung und praktischen Anwendung von Informationen über die Gegner des NS-Staates. Die Gegnerforscher im Amt II des Sicherheitshauptamtes versuchten so, politischen Einfluss auf die Partei- und Staatsführung des „Dritten Reiches“ zu nehmen. Ihre Analysen dienten auch zur Schulung und als Material für die exekutiv arbeitende Gestapo, lieferten also die materielle und ideologische Grundlage zur Verfolgung des „Gegners“ – Freimaurer, Juden, die „politischen Kirchen“, „Marxisten“ und Liberale. Unter den Gegnerforschern entstand ein gemeinsamer Denkstil. Daraus entwickelten sie Strategien zur Erkennung und Bekämpfung der Gegnergruppen und professionalisierten sie Mitte der 1930er-Jahre. Viele von ihnen wandten in den ersten Einsatzkommandos in Österreich, der Tschechoslowakei oder Polen, in den Stäben der Befehlshaber der Sicherheitspolizei und als „Judenberater“ genau die Methoden zur Gegnerbekämpfung an, die sie im Amt II des Sicherheitshauptamtes mitentwickelt hatten.
This book examines why Japan has one of the highest enrolment rates in cram schools and private tutoring worldwide. It sheds light on the causes of this high dependence on ‘shadow education’ and its implications for social inequalities. The book provides a deep and extensive understanding of the role of this kind of education in Japan. It shows new ways to theoretically and empirically address this issue, and offers a comprehensive perspective on the impact of shadow education on social inequality formation that is based on reliable and convincing empirical analyses.
Contrary to earlier studies, the book shows that shadow education does not inevitably result in increasing or persisting inequalities, but also inherits the potential to let students overcome their status-specific disadvantages and contributes to more opportunities in education. Against the background of the continuous expansion and the convergence of shadow education systems across the globe, the findings of this book call for similar works in other national contexts, particularly Western societies without traditional large-scale shadow education markets. The book emphasizes the importance and urgency to deal with the modern excesses of educational expansion and education as an institution, in which the shadow education industry has made itself (seemingly) indispensable.
This book:
• Is the first comprehensive empirical work on the implications of shadow education for educational and social inequalities.
• Draws on quantitative and qualitative data and uses mixed-methods.
• Has major implications for sociological, international and comparative research on the topic.
• Introduces a general theoretical frame to help future research in approaching this under-theorized field.
Begriffe wie „Türken“, „Menschen mit türkischem Migrationshintergrund“, etc., die in vielen Bereichen des Lebens verwendet werden, sind Ausdruck der vorliegenden Differenzordnungen und Machtstrukturen und können diskriminierend wirken. Das ist z.B. dann der Fall, wenn bestimmte Begriffe verwendet werden, obwohl eine Kontextrelevanz nicht unbedingt vorliegt. Einige ethnische Bezeichnungen werden dabei häufiger verwendet als andere, trotz vergleichbarer Kontextrelevanz: „türkische/arabische Kinder“ aber nicht „englische/spanische Kinder“ (Wiese 2012), „Deutsch-Türke“ Mesut Özil aber nicht „Deutsch-Tunesier“ Sami Khedira. Erst die Bezeichnungen schaffen hier die Subjekte. Die besondere Auszeichnung macht es in der Folge möglich, dass ihnen Eigenschaften zugeschrieben werden (do Mar Castro Varela/Dhawan 2004). Aus Studien geht hervor, dass Ethnisierung mit Unterschichtung (Hormel 2007) in Verbindung gebracht wird und Begriffe wie „Migrant“ mit negativen Eigenschaften (Scarvagliere/Zech 2013). Durch die Auszeichnung von Abweichungen von dem von der Mehrheit definierten unmarkierten Normalfall wird eine Differenzordnung (Mecheril/Melter 2012) hergestellt, die das vermeintliche Anders-Sein ins Zentrum der Aufmerksamkeit rückt. Folgen sind Abwertung bestimmter (Erst-)Sprachen, Unterwerfung durch Beschreibungspraxen und Restriktionen auf dem Feld der Repräsentation (Broden/Mecheril 2007).
Ausgehend von diesen Überlegungen wird in der Arbeit „Ethnizität“ diskutiert, worauf viele dieser Bezeichnungen rekurrieren. Barth (1969, 1994) stellt fest, dass Ethnizität der Abgrenzung dient und Zugehörigkeit zu ethnische Gruppen durch kategoriale Selbst- und Fremdzuschreibungen bestimmt wird. Brubaker (2004) folgert daher, dass „Gruppen“ nur in Form von Vorstellungen existieren, die Individuen davon haben und diese Subjektivität zu unterschiedlichen Konstruktionen ethnischer Identität führt. Dementsprechend können auch „multiple ethnische Identitäten“ (Keupp 2002) und „Hybriditäten“ (Foroutan 2013) das Ergebnis der individuellen Konstruktion sein, ohne dass diese Formen gemeinhin akzeptierte Bezeichnungen darstellen.
Um die individuelle Entstehung ethnischer Identität nachvollziehen zu können, werden in der Arbeit Spracherwerbsgeschichten analysiert, da verschiedene Studien nahelegen, dass das Sprechen einer Sprache in engem Zusammenhang zur Ethnizität steht. Ohm (2008) zeigt, dass Zweitsprachenerwerb mit Identitätsprozessen in einem wechselseitigen Bedingungsverhältnis steht. Giles/Bourhis/Taylor (1977: 326) zeigen anhand von Untersuchungen in mehrsprachigen Gebieten wie Quebec und Wales, dass Sprache enger mit ethnischer Identität verbunden ist als Nationalität oder „Kultur“. Rosenberg (2015) führt am Beispiel der ehemaligen UdSSR auf, dass das Sprechen einer Sprache gleichbedeutend mit dem Zugehörigkeit zu einer ethnischen „Gruppe“ war. Sprache greift auch als Ausschlusskriterium: Nur wer eine Sprache gut spricht, darf die damit verbundene Identität in Anspruch nehmen (Schroeder/Dollnick, 2013: 104).
Mithilfe der Methode des narrativen Interviews können Spracherwerbsgeschichten produziert, und individuelle kognitive Perspektiven und gesellschaftliche Prozesse aufgedeckt werden. In der Analyse können vier Wege der Entstehung ethnischer Identität unterschieden werden: I. Ethnizität als primäre und dauerhafte Dimension, II. Multiple ethnische Identität, III. Unmarkierte ethnische Identität, IV. Selbstbestimmtheit. So kommt die Untersuchung zu dem Schluss, dass Ethnische Identität bei „Menschen mit türkischem Migrationshintergrund“ durch individuelle Erfahrungen entsteht, sich verändern und Mehrfachzugehörigkeiten oder Hybriditäten zulassen kann. Dieses Ergebnis widerspricht dem alltäglichen Gebrauch bestimmter Begriffe und stellt damit gängige Bezeichnungsweisen und Differenzordnungen in Frage.
My thesis focused on the predictions of the activation-based model of Lewis and Vasishth (2005) to investigate the evidence for the use of the memory system in the formation of non-local dependencies in sentence comprehension.
The activation-based model, which follows the Adaptive Control of Thought-Rational framework (ACT-R; Anderson et al., 2004), has been used to explain locality effects and similarity-based interference by assuming that dependencies are resolved by a cue-based retrieval mechanism, and that the retrieval mechanism is affected by decay and interference.
Both locality effects and (inhibitory) similarity-based interference cause increased difficulty (e.g., longer reading times) at the site of the dependency completion where a retrieval is assumed: (I) Locality effects are attributed to the increased difficulty in the retrieval of a dependent when the distance from its retrieval site is increased. (II) Similarity-based interference is attributed to the retrieval being affected by the presence of items which have similar features as the dependent that needs to be retrieved.
In this dissertation, I investigated some findings problematic to the activation-based model, namely, facilitation where locality effects are expected (e.g., Levy, 2008), and the lack of similarity-based interference from the number feature in grammatical sentences (e.g., Wagers et al., 2009). In addition, I used individual differences in working memory capacity and reading fluency as a way to validate the theories investigated (Underwood, 1975), and computational modeling to achieve a more precise account of the phenomena.
Regarding locality effects, by using self-paced reading and eye-tracking-while reading methods with Spanish and German data, this dissertation yielded two main findings: (I) Locality effects seem to be modulated by working memory capacity, with high-capacity participants showing expectation-driven facilitation. (II) Once expectations and other potential confounds are controlled using baselines, with increased distance, high-capacity readers can show a slow-down (i.e., locality effects) and low-capacity readers can show a speedup. While the locality effects are compatible with the activation-based model, simulations show that the speedup of low-capacity readers can only be accounted for by changing some of the assumptions of the activation-based model.
Regarding similarity-based interference, two relatively high-powered self-paced reading experiments in German using grammatical sentences yielded a slowdown at the verb as predicted by the activation-based model. This provides evidence in favor of dependency creation via cue-based retrieval, and in contrast with the view that cue-based retrieval is a reanalysis mechanism (Wagers et al., 2009).
Finally, the same experimental results that showed inhibitory interference from the number feature are used for a finer grain evaluation of the retrieval process. Besides Lewis and Vasishth’s (2005) activation-based model, also McElree’s (2000) direct-access model can account for inhibitory interference. These two models assume a cue-based retrieval mechanism to build dependencies, but they are based on different assumptions. I present a computational evaluation of the predictions of these two theories of retrieval. The models were compared by implementing them in a Bayesian hierarchical framework. The evaluation of the models reveals that some aspects of the data fit better under the direct access model than under the activation-based model. However, a simple extension of the activation-based model provides a comparable fit to the direct access model. This serves as a proof of concept showing potential ways to improve the original activation-based model.
In conclusion, this thesis adds to the body of evidence that argues for the use of the general memory system in dependency resolution, and in particular for a cue-based retrieval mechanism. However, it also shows that some of the default assumptions inherited from ACT-R in the activation-based model need to be revised.
Datenbankbasierte epidemiologische Untersuchung über die Versorgung demenzerkrankter Patienten
(2016)
Hintergrund:
Demenz wird von der Weltgesundheitsorganisation als ein in der Regel chronisch oder progressiv verlaufendes Syndrom definiert, das von einer Vielzahl von Hirnerkrankungen verursacht wird, welche das Gedächtnis, das Denkvermögen, das Verhalten und die Fähigkeit, alltägliche Tätigkeiten auszuführen, beeinflussen. Weltweit leiden 47,5 Millionen Menschen unter Demenz und diese Zahl wird sich voraussichtlich bis zum Jahr 2050 verdreifachen.
In den vorliegenden Studien wurden zum Einem die Faktoren, welche mit dem Risiko einhergehen eine Demenz zu entwickeln, analysiert. Zum Anderen wurde die Persistenz der medikamentösen Behandlung von depressiven Zuständen mit Antidepressiva sowie die Persistenz der medikamentösen Behandlung von Verhaltensstörungen, therapiert mit Antipsychotika, bei Demenzpatienten untersucht.
Durchführung:
Alle drei Studien basieren auf den Daten der IMS Disease Analyzer-Datenbank.
Die Daten der Disease Analyzer-Datenbank werden über standardisierte Schnittstellen direkt monatlich aus dem Praxiscomputer generiert. Die Daten werden vor der Übertragung verschlüsselt und entsprechen in Umfang und Detaillierungsgrad der Patientenakte.
Risikofaktoren für eine Demenzdiagnose
Methode:
Insgesamt wurden in die Studie 11.956 Patienten mit einer Erstdiagnose (Indexdatum) einer Demenz (ICD 10: F01, F03, G30) zwischen Januar 2010 und Dezember 2014 eingeschlossen. 11.956 Kontrollpatienten (ohne Demenz) wurden den Patienten nach Alter, Geschlecht, Art der Krankenversicherung und Arzt zugeordnet. In beiden Fällen wurden die Praxisaufzeichnungen dazu verwendet, sicherzustellen, dass die Patienten vor dem Indexdatum jeweils 10 Jahre kontinuierlich beobachtet worden waren. Insgesamt wurden 23.912 Personen betrachtet.
Mehrere Erkrankungen, die möglicherweise mit Demenz assoziiert sind, wurden anhand von allgemeinärztlichen Diagnosen bestimmt (ICD-10-Codes): Diabetes (E10-E14), Hypertonie (I10), Adipositas (E66), Hyperlipidämie (E78), Schlaganfall (einschließlich transitorische ischämische Attacke, TIA) (I63, I64, G45), Parkinson-Krankheit (G20, G21), intrakranielle Verletzung (S06), koronare Herzkrankheit (I20-I25), leichte kognitive Beeinträchtigung (F06) und psychische und Verhaltensstörungen durch Alkohol (F10). Das Vorhandensein mehrerer Medikamente, wie z. B. Statine, Protonenpumpenhemmer und Antihypertensiva (einschließlich Diuretika, Beta-Blocker, Calciumkanalblocker, ACE-Hemmer und Angiotensin-II), wurde ebenfalls bemessen.
Ergebnisse:
Das Durchschnittsalter für die 11.956 Demenzpatienten und die 11.956 der Kontrollkohorte war 80,4 (SD 5,3) Jahre. 39,0% der waren männlich. In dem multivariaten Regressionsmodell, wurden folgende Variablen mit einem erhöhten Risiko von Demenz in einem signifikanten Einfluß assoziiert: milde kognitive Beeinträchtigung (MCI) (OR: 2,12), psychische und Verhaltensstörungen durch Alkohol (1,96), Parkinson-Krankheit (PD) (1,89), Schlaganfall (1,68), intrakranielle Verletzung (1,30), Diabetes (1,17), Fettstoffwechselstörung (1,07), koronare Herzkrankheit (1,06). Der Einsatz von Antihypertensiva (0,96), Statinen (OR: 0,94) und Protonen-Pumpen-Inhibitoren (PPI) (0,93) wurden mit einem verringerten Risiko der Entwicklung von Demenz.
Schlussfolgerung:
Die gefundenen Risikofaktoren für Demenz stehen in Einklang mit der Literatur. Nichtsdestotrotz bedürfen die Zusammenhänge zwischen der Verwendung von Statinen, PPI und Antihypertensiva und einem verringerten Demenzrisiko weiterer Untersuchungen.
Persistenz der Behandlung mit Antidepressiva bei Patienten mit Demenz
Methode:
Patienten wurden ausgewählt, wenn bei ihnen im Zeitraum zwischen Januar 2004 und Dezember 2013 eine Demenzdiagnose (ICD 10: F01, F03, G30) und eine erste Verordnung eines trizyklischen Antidepressivums oder selektiven Serotonin-
Wiederaufnahmehemmers (SSRI) oder Serotonin-Noradrenalin-Wiederaufnahmehemmers (SSNRI) vorlagen. Ausgewählte Patienten wurden über einen Zeitraum von bis zu zwei Jahre nach dem Indexdatum beobachtet. Das letzte Nachbeobachtungsdatum eines Patienten war der 31. Dezember 2014. Insgesamt standen 12.281 Patienten für die Persistenzanalyse zur Verfügung. Der Hauptzielparameter war die Abbruchrate der Antidepressivabehandlung innerhalb von sechs Monaten nach dem Indexdatum. Behandlungsabbruch wurde definiert als ein Zeitraum von 90 Tagen ohne diese Therapie.
Als demographische Daten wurden Alter, Art der Krankenversicherung (privat oder gesetzlich), Art der Praxis (Neurologe oder Allgemeinmediziner) und Praxisregion (Ost- oder Westdeutschland) erhoben. Die folgenden Demenzdiagnosen wurden berücksichtigt: Alzheimer-Krankheit (G30), vaskuläre Demenz (F01) und nicht näher bezeichnete Demenz (F03). Darüber hinaus wurde der Charlson-Komorbiditäts-Index als allgemeiner Marker für Komorbidität verwendet. Darüber hinaus wurden die folgenden Diagnosen als Komorbiditäten in die Studie aufgenommen: Depression (ICD 10: F32-33), Delir (F05), Typ-2-Diabetes mellitus (E11, E14), Hypertonie (I10), koronare Herzkrankheit (I24, I25), Schlaganfall (I63, I64), Myokardinfarkt (I21-23) und Herzinsuffizienz (I50).
Ergebnisse:
Nach sechs Monaten Nachbeobachtung hatten 52,7 % (von 12,281 Demenzpatienten) der mit Antidepressiva behandelten Demenzpatienten die Medikamenteneinnahme abgebrochen. Die multivariaten Regressionsanalysen zeigten ein signifikant geringeres Risiko für einen Behandlungsabbruch bei mit SSRRI oder SSNRI behandelten Patienten verglichen mit Patienten, die trizyklische Antidepressiva einnahmen. Es zeigte sich ein signifikant geringeres Risiko eines Behandlungsabbruchs bei jüngeren Patienten.
Schlussfolgerung:
Die Ergebnisse zeigen eine unzureichende Persistenz mit Antipsychotika bei Demenzpatienten unter Alltagsbedingungen. Es muss eine Verbesserung erreicht werden, um die in den Richtlinien empfohlene Behandlung sicherzustellen.
Persistenz der Behandlung mit Antipsychotika bei Patienten mit Demenz
Methode:
Diese Studie umfasste Patienten im Alter ab 60 Jahren mit Demenz beliebigen Ursprungs, die zwischen Januar 2009 und Dezember 2013 (Indexdatum) zum ersten Mal Antipsychotikaverordnungen (ATC: N05A) von deutschen Psychiatern erhielten. Der Nachbeobachtungszeitraum endete im Oktober 2015. Die Demenz wurde auf Grundlage der ICD-10-Codes für vaskuläre Demenz (F01), nicht näher bezeichnete Demenz (F03) und Alzheimer-Krankheit (G30) bewertet.
Der Hauptzielparameter war die Behandlungspersistenzrate über einen Zeitraum von mehr als 6 Monaten nach dem Indexdatum. Die Persistenz wurde als Therapiezeit ohne Absetzen der Behandlung, definiert als mindestens 180 Tage ohne Antipsychotikatherapie, geschätzt. Alle Patienten wurden für eine Dauer von bis zu zwei Jahren ab ihrem Indexdatum beobachtet.
Gleichzeitig auftretende Erkrankungen wurden anhand von Diagnosen (ICD-10-Codes) von Depression (F32, F33), Parkinson-Krankheit (G20), psychischer Störungen aufgrund bekannter physiologischer Erkrankungen (F06) und Persönlichkeits- und Verhaltensstörungen aufgrund physiologischer Erkrankungen (F07) bestimmt. Als demographische Daten wurden Alter, Geschlecht und Art der Krankenversicherung (privat/gesetzlich) erhoben.
Ergebnisse:
12,979 Demenzpatienten mit einem Durchschnittsalter von 82 Jahre (52.1% leben in Pflegeheimen) wurden in diese Studie analysiert. Nach zwei Jahren Nachbeobachtung hatten 54,8 %, 57,2 %, 61,1 % bzw. 65,4 % der Patienten zwischen 60-69, 70-79, 80-89 bzw. 90-99 Jahren Antipsychotikaverordnungen erhalten (p<0,001). 82,6 % der in Pflegeheimen lebenden Patienten und 76,2 % der Patienten in häuslicher Pflege setzten ihre Behandlung ebenfalls länger als 6 Monate fort; nach zwei Jahren lag der Anteil bei 63,9 % (in Pflegeheimen) bzw. 55,0 % (in häuslicher Pflege) (p<0,001).
Schlussfolgerung:
Die Studie zeigt, dass der Anteil der mit Antipsychotika behandelten Demenzpatienten sehr hoch ist. Weitere Studien, einschließlich qualitativer Untersuchungen, sind nötig, um die Gründe für dieses Verschreibungsverhalten zu verstehen und zu erklären.
The impact of collagen modifications by methylglyoxal on fibroblast function and the role in aging
(2016)
Ephraim Carlebach
(2016)
From dark to light
(2016)
Effects of plant community diversity and composition on fungal pathogens in experimental grasslands
(2016)
Investigation of novel proteins and polysaccharides associated with coccoliths of Emiliania huxleyi
(2016)
The humid tropics are the region with the highest rate of land-cover change worldwide. Especially prevalent is the deforestation of old-growth tropical forests to create space for cattle pastures and soybean fields.
The regional water cycle is influenced by vegetation cover in various ways. Especially evapotranspiration considerably contributes to water vapor content in the lower atmosphere. Besides active transpiration by plants, evaporation from wetted plant surfaces further known as interception loss is an important supply of water vapor. Changes in interception loss due to change in land cover and the related consequences on the regional water cycle in the humid tropics of Latin America are the research focus of my thesis. (1) In an experimental setup I assess differences in interception loss between an old-growth tropical forest and a soybean plantation. (2) In a modeling study, I examine interception losses of these two vegetation types compared to a younger secondary forest with the use of the Gash interception model, including an uncertainty analysis for the estimation of the necessary model parameters. (3) Studying the water balance of a 192-km² catchment I disentangle the influences of changes in land cover and climatic factors on interception loss.
The three different research sites in my thesis represent a currently typical spectrum for land-cover changes in Latin America. In the first example I study the consequences of deforestation of transitional forest, which forms the transition from the Brazilian tree savanna (cerrado) to tropical rain forest, for the establishment of soybean fields in the southern Amazon basin. The second study site is a young secondary forest within the “Agua Salud” project area in Panama as an example of reforestation of former pastures. The third study site is the Cirí Grande river catchment which comprises a mixture of young and old forests as well as pastures, which is typical for the southern sub-catchments of the Panama Canal.
The experimental approach consists of the indirect estimation of interception loss by measuring throughfall and stem flow. For the first experimental study I measured throughfall as well as stem flow manually. Measurements of the leaf area index of the two land covers do not show distinct differences; hence it could not serve as an explanation for the differences in the measured interception loss. The considerably higher interception loss at the soybean field is attributed to a possible underestimation of stemflow but also to the stronger ventilation within the well-structured plant rows causing higher evaporation rates. This situation is valid only for two months of the rainy season, when soybean plants are fully developed. In the annual balance evapotranspiration at the soybean site is clearly less than at the forest site, accelerating the development of fast runoff components and consequently discharge. In the medium term, a reduction of water availability in the study area can be expected.
For the modeling study, throughfall in a young secondary forest is sampled automatically. The resulting temporally high-resolution dataset allows the distinction between different precipitation and interception events. The core of this study is the sensitivity and uncertainty analysis of the Gash interception model parameters and the consequences for its results. Canopy storage capacity plays a key role for the model and parameter uncertainty. With increasing storage capacity uncertainty in parameter delineation also increases. Evaporation rate as the driving component of the interception process incorporates in this context the largest parameter uncertainty. Depending on the selected method for parameter estimation, parameter values may vary tremendously.
In the third study, I analyze the influence of interception loss on the water balance of the Cirí Grande catchment, incorporating the interlinked effects of temperature, precipitation and changes of the land use mosaic using the SWAT (soil water assessment tool) model. Constructing several land-cover scenarios I assess their influence on the catchment’s discharge. The results show that land-cover change exerts only a small influence on annual discharge in the Cirí Grande catchment whereas an increase in temperature markedly influences evapotranspiration. The temperature-induced larger transpiration and interception loss balances the simultaneous increase in annual precipitation, such that the resulting changes in annual discharge are negligible.
The results of the three studies show the considerable effect of land cover on interception. However, the magnitude of this effect can be masked by changes in local conditions, especially by an increase in temperature. Hence, the results cannot be transferred easily between the different study sites. For modeling purposes, this means that measurements of vegetation characteristics as well as interception loss at the respective sites are indispensable.
The impact of soil microbiota on plant species performance and diversity in semi-natural grasslands
(2016)
In the first part of my work I have investigated the ageing properties of the first passage time distributions in a one-dimensional subdiffusive continuous time random walk with power law distributed waiting times of the form $\psi(\tau) \sim \tau^{-1-\alpha}$ with $0<\alpha<1$ and $1<\alpha<2$. The age or ageing time $t_a$ is the time span from the start of the stochastic process to the start of the observation of this process (at $t=0$). I have calculated the results for a single target and two targets, also including the biased case, where the walker is driven towards the boundary by a constant force. I have furthermore refined the previously derived results for the non-ageing case and investigated the changes that occur when the walk is performed in a discrete quenched energy landscape, where the waiting times are fixed for every site. The results include the exact Laplace space densities and infinite (converging) series as exact results in the time space. The main results are the dominating long time power law behavior regimes, which depend on the ageing time. For the case of unbiased subdiffusion ($\alpha < 1$) in the presence of one target, I find three different dominant terms for ranges of $t$ separated by $t_a$ and another crossover time $t^{\star}$, which depends on $t_a$ as well as on the anomalous exponent $\alpha$ and the anomalous diffusion coefficient $K_{\alpha}$. In all three regimes ($t \ll t_a$, $t_a \ll t \ll t^{\star}$, $t \gg t^{\star}$) one finds power law decay with exponents depending on $\alpha$. The middle regime only exists for $t_a \ll t^{\star}$. The dominant terms in the first two regimes (ageing regimes) come from the probability distribution of the forward waiting time, the time one has to wait for the stochastic process to make the first step during the observation. When the observation time is larger than the second crossover time $t^{\star}$, the first passage time density does not show ageing and the non-ageing first passage time dominates. The power law exponents in the respective regimes are $-\alpha$ for strong ageing, $-1-\alpha$ in the intermediate regime, and $-1-\alpha/2$ in the final non-ageing regime. A similar split into three regimes can be found for $1<\alpha<2$, only with a different second crossover time $t^*$. In this regime the diffusion is normal but also age-dependent. For the diffusion in quenched energy landscapes one cannot detect ageing. The first passage time density shows a quenched power law $^\sim t^{-(1+2\alpha)/(1+\alpha)}$. For diffusion between two target sites and the biased diffusion towards a target only two scaling regimes emerge, separated by the ageing time. In the ageing case $t \ll t_a$ the forward waiting time is again dominant with power law exponent $-\alpha$, while the non-ageing power law $-1-\alpha$ is found for all times $t \gg t_a$. An intermediate regime does not exist. The bias and the confinement have similar effects on the first passage time density. For quenched diffusion, the biased case is interesting, as the bias reduces correlations due to revisiting of the same waiting time. As a result, CTRW like behavior is observed, including ageing. Extensive computer simulations support my findings.
The second part of my research was done on the subject of ageing Scher-Montroll transport, which is in parts closely related to the first passage densities. It explains the electrical current in an amorphous material. I have investigated the effect of the width of a given initial distribution of charge carriers on the transport coefficients as well as the ageing effect on the emerging power law regimes and a constant initial regime. While a spread out initial distribution has only little impact on the Scher-Montroll current, ageing alters the behavior drastically. Instead of the two classical power laws one finds four current regimes, up to three of which can appear in a single experiment. The dominant power laws differ for $t \ll t_a, t_c$, $t_a \ll t \ll t_c$, $t_c \ll t \ll t_a$, and $t \gg t_a,t_c$. Here, $t_c$ is the crossover time of the non-aged Scher-Montroll current. For strongly aged systems one can observe a constant current in the first regime while the others are dominated by decaying power laws with exponents $\alpha -1$, $-\alpha$, and $-1-\alpha$. The ageing regimes are the 1st and 3rd one, while the classical regimes are the 2nd and the 4th. I have verified the theory using numerical integration of the exact integrals and applied the new results to experimental data.
In the third part I considered a single file of subdiffusing particles in an energy landscape. Every occupied site of the landscape acts as a boundary, from which a particle is immediately reflected to its previous site, if it tries to jump there. I have analysed the effects single-file diffusion a quenched landscape compared to an annealed landscape and I have related these results to the number of steps and related quantities. The diffusion changes from ultraslow logarithmic diffusion in the annealed or CTRW case to subdiffusion with an anomalous exponent $\alpha/(1+\alpha)$ in the quenched landscape. The behavior is caused by the forward waiting time, which changes drastically from the quenched to the annealed case. Single-file effects in the quenched landscape are even more complicated to consider in the ensemble average, since the diffusion in individual landscapes shows extremely diverse behavior. Extensive simulations support my theoretical arguments, which consider mainly the long time evolution of the mean square displacement of a bulk particle.
Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem. Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet.
Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen:
> Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben. Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar. Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden. Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen. Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen
>Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen. Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert.
In freshwater sciences, nitrogen gained increasing attention in the past as an important resource potentially influencing phytoplankton growth and thus eutrophication. Most studies and all management approaches, however, are still restricted to dissolved inorganic nitrogen (DIN = nitrate + nitrite + ammonium) since dissolved organic nitrogen (DON) was considered to be refractory for most of the photoautotrophs. In the meantime this assumption has been disproved for all aquatic systems. While research on DON in marine ecosystems substantially increased, in freshwater a surprisingly small number of investigations has been carried out on DON utilization by phytoplankton or even the occurrence and seasonal development of total DON or its compounds in lakes. Therefore, our present knowledge on DON utilization by phytoplankton is often based on single species experiments using a sole, usually low molecular weight DON component, often in unnaturally high amounts mainly carried out with marine phytoplankton species. Thus, we know that some phytoplankton species can take up different DON fractions if they are available in high concentrations and as sole nitrogen source. This does not necessarily imply that phytoplankton would perform likewise in natural environments. In addition, it will be difficult to draw conclusions on the behavior of freshwater phytoplankton from experiments with marine phytoplankton since the nutrient regime in marine environments differs from that of freshwater. In the light of the parallel availability of inorganic and organic nitrogen species in natural freshwater ecosystems, several questions must be raised: "If inorganic nitrogen is available, would phytoplankton really rely on an organic nitrogen source? Could a connection be detected between the seasonal development of DON and changes in the phytoplankton community composition as found for inorganic nitrogen? And if we reduce the input of inorganic nitrogen in lakes and rivers would the importance of DON as nitrogen source for phytoplankton increase, counteracting all management efforts or even leading to undesired effects due to changes in phytoplankton physiology and biodiversity?" I experimentally addressed the questions whether those DON compounds differentially influence growth, physiology and composition of phytoplankton both as sole available nitrogen source and in combination with other nitrogen compounds. I hypothesized that all offered DON - compounds (urea, natural organic matter (NOM), dissolved free and combined amino acids (DFAA, DCAA)) could be utilized by phytoplankton at natural concentrations. However, I assumed that the availability would decrease with increasing compound complexity. I furthermore hypothesized that the occurrence of low DIN concentrations would not affect the utilization of DON negatively. The nitrogen source, whatsoever, would have an impact on phytoplankton physiology as well as community composition. To investigate these questions and assumptions I conducted bioassays with algae monocultures as well as phytoplankton communities testing the utilization of various DON compounds by several freshwater phytoplankton species. Especially the potential utilization of NOM, a complex DON compound mainly consisting of humic substances is of interest, since it is usually regarded to be refractory. In order to be able to use natural concentrations of DON - compounds for my experiments the concentration of total DON and some DON - compounds (urea, humic substances, heigh molecular weight substances) was assessed in Lake Müggelsee. All compounds were able to support algae growth in the low natural concentrations supplied. However, I found that the offered DON compounds differ in their availability to various algae species, both, as sole nitrogen source or in combination with low DIN concentrations. As expected, the availability decreased with increasing complexity of the nitrogen compound. Furthermore, I could show that changes in algal physiology (nitrogen storage, metabolism) occur depending on the utilized nitrogen source. Especially the secondary photosynthetic pigment composition, heterocyst frequency and C:N - ratio of the algae were affected. The uptake and usage of certain nitrogen compounds might be more costly, potentially resulting in those physiology changes. Whereas laboratory experiments with single species revealed strong effects of DON, algal responses to DON in a multi-species situation remain unclear. Experiments with phytoplankton communities from Lake Müggelsee revealed that the nitrogen pool composition does influence the phytoplankton community structure. The findings furthermore show that several species combined might utilize the supplied nitrogen completely different than monocultures in the laboratory. Thus, besides the actual ability of algae to use the offered nitrogen sources other factors, such as interspecific competition, may be of importance. I further investigated, if the results of the laboratory experiments, can be verified in the field. Here, I surveyed the seasonal development of several dissolved organic matter (DOM) components (urea, high molecular weight substances (HMWS), humic substances (HS)) and associated parameters (Specific UV-absorption (SUVA), C:N - ratio) in Lake Müggelsee between 2011 and 2013. Furthermore, data from the long term measurements series of Lake Müggelsee such as physical (temperature, light, pH, O2) and chemical parameters (nitrogen, phosphorous, silica, inorganic carbon), zooplankton and phytoplankton data were used to investigate how much of the variability of the phytoplankton composition in Lake Müggelsee can be explained by DON/DOM concentration and composition, relative to the other groups of explanatory variables. The results show that DON mainly consists of rather complex compounds such as humic substances and biopolymers (80 %) and that only slight seasonal trends are detectable. Using variance partitioning I could show, that the usually investigated nutrients (DIN, silica, inorganic carbon, phosphorous) and abiotic factors together explain most of the algae composition as was to be expected (57.1 % of modeled variance). However, DOM and the associated parameters uniquely explain 10.3 % of the variance and thus slightly more than zooplankton with 9.3 %. I could therefore prove, that the composition of DOM (nitrogen and carbon) is connected to the algae composition in an eutrophic lake such as Lake Müggelsee. DON - compounds such as urea, however, could not be correlated with the occurrence of specific phytoplankton species. Overall, the results of this study imply that DON can be a valuable nitrogen source for freshwater phytoplankton. DON is used by various species even when DIN is available in low concentrations. Through the reduction of DIN in lakes and rivers, the DON:DIN ratio might be changed, resulting even in an increased importance of DON as phytoplankton nitrogen source. My work suggests that not only N2-fixation but also DON utilization might compensate for reduced N - input. Changes from DIN to DON as main nitrogen source might also promote certain, potentially undesired algae species and influence the biodiversity of a limnic ecosystem through changes in the phytoplankton community structure. Thus, DON, especially urea, should be included in calculations concerning total available nitrogen and when determining nitrogen threshold values. Furthermore, the input-reduction of DON, for example from waste-water treatment plants should also be evaluated and the results of my thesis should find consideration when planning to reduce the nitrogen input in freshwater.
The introduction of columnar in-memory databases, along with hardware evolution, has made the execution of transactional and analytical enterprise application workloads on a single system both feasible and viable. Yet, we argue that executing analytical aggregate queries directly on the transactional data can decrease the overall system performance. Despite the aggregation capabilities of columnar in-memory databases, the direct access to records of a materialized aggregate is always more efficient than aggregating on the fly. The traditional approach to materialized aggregates, however, introduces significant overhead in terms of materialized view selection, maintenance, and exploitation. When this overhead is handled by the application, it increases the application complexity, and can slow down the transactional throughput of inserts, updates, and deletes.
In this thesis, we motivate, propose, and evaluate the aggregate cache, a materialized aggregate engine in the main-delta architecture of a columnar in-memory database that provides efficient means to handle costly aggregate queries of enterprise applications. For our design, we leverage the specifics of the main-delta architecture that separates a table into a main and delta partition. The central concept is to only cache the partial aggregate query result as defined on the main partition of a table, because the main partition is relatively stable as records are only inserted into the delta partition. We contribute by proposing incremental aggregate maintenance and query compensation techniques for mixed workloads of enterprise applications. In addition, we introduce aggregate profit metrics that increase the likelihood of persisting the most profitable aggregates in the aggregate cache.
Query compensation and maintenance of materialized aggregates based on joins of multiple tables is expensive due to the partitioned tables in the main-delta architecture. Our analysis of enterprise applications has revealed several data schema and workload patterns. This includes the observation that transactional data is persisted in header and item tables, whereas in many cases, the insertion of related header and item records is executed in a single database transaction. We contribute by proposing an approach to transport these application object semantics to the database system and optimize the query processing using the aggregate cache by applying partition pruning and predicate pushdown techniques.
For the experimental evaluation, we propose the FICO benchmark that is based on data from a productive ERP system with extracted mixed workloads. Our evaluation reveals that the aggregate cache can accelerate the execution of aggregate queries up to a factor of 60 whereas the speedup highly depends on the number of aggregated records in the main and delta partitions. In mixed workloads, the proposed aggregate maintenance and query compensation techniques perform up to an order of magnitude better than traditional materialized aggregate maintenance approaches. The introduced aggregate profit metrics outperform existing costbased metrics by up to 20%. Lastly, the join pruning and predicate pushdown techniques can accelerate query execution in the aggregate cache in the presence of multiple partitioned tables by up to an order of magnitude.
In the debate on how to govern sustainable development, a central question concerns the interaction between knowledge about sustainability and policy developments. The discourse on what constitutes sustainable development conflict on some of the most basic issues, including the proper definitions, instruments and indicators of what should be ‘developed’ or ‘sustained’. Whereas earlier research on the role of (scientific) knowledge in policy adopted a rationalist-positivist view of knowledge as the basis for ‘evidence-based policy making’, recent literature on knowledge creation and transfer processes has instead pointed towards aspects of knowledge-policy ‘co-production’ (Jasanoff 2004). It is highlighted that knowledge utilisation is not just a matter of the quality of the knowledge as such, but a question of which knowledge fits with the institutional context and dominant power structures. Just as knowledge supports and justifies certain policy, policy can produce and stabilise certain knowledge. Moreover, rather than viewing knowledge-policy interaction as a linear and uni-directional model, this conceptualization is based on an assumption of the policy process as being more anarchic and unpredictable, something Cohen, March and Olsen (1972) has famously termed the ‘garbage-can model’.
The present dissertation focuses on the interplay between knowledge and policy in sustainability governance. It takes stock with the practice of ‘Management by Objectives and Results’ (MBOR: Lundqvist 2004) whereby policy actors define sustainable development goals (based on certain knowledge) and are expected to let these definitions guide policy developments as well as evaluate whether sustainability improves or not. As such a knowledge-policy instrument, Sustainability Indicators (SI:s) help both (subjectively) construct ‘social meaning’ about sustainability and (objectively) influence policy and measure its success. The different articles in this cumulative dissertation analyse the development, implementation and policy support (personal and institutional) of Sustainability Indicators as an instrument for MBOR in a variety of settings. More specifically, the articles centre on the question of how sustainability definitions and measurement tools on the one hand (knowledge) and policy instruments and political power structures on the other, are co-produced.
A first article examines the normative foundations of popular international SI:s and country rankings. Combining theoretical (constructivist) analysis with factor analysis, it analyses how the input variable structure of SI:s are related to different sustainability paradigms, producing a different output in terms of which countries (developed versus developing) are most highly ranked. Such a theoretical input-output analysis points towards a potential problem of SI:s becoming a sort of ‘circular argumentation constructs’. The article thus, highlights on a quantitative basis what others have noted qualitatively – that different definitions and interpretations of sustainability influence indicator output to the point of contradiction. The normative aspects of SI:s does thereby not merely concern the question of which indicators to use for what purposes, but also the more fundamental question of how normative and political bias are intrinsically a part of the measurement instrument as such. The study argues that, although no indicator can be expected to tell the sustainability ‘truth-out-there’, a theoretical localization of indicators – and of the input variable structure – may help facilitate interpretation of SI output and the choice of which indicators to use for what (policy or academic) purpose.
A second article examines the co-production of knowledge and policy in German sustainability governance. It focuses on the German sustainability strategy ‘Perspektiven für Deutschland’ (2002), a strategy that stands out both in an international comparison of national sustainability strategies as well as among German government policy strategies because of its relative stability over five consecutive government constellations, its rather high status and increasingly coercive nature. The study analyses what impact the sustainability strategy has had on the policy process between 2002 and 2015, in terms of defining problems and shaping policy processes. Contrasting rationalist and constructivist perspectives on the role of knowledge in policy, two factors, namely the level of (scientific and political) consensus about policy goals and the ‘contextual fit’ of problem definitions, are found to be main factors explaining how different aspects of the strategy is used. Moreover, the study argues that SI:s are part of a continuous process of ‘structuring’ in which indicator, user and context factors together help structure the sustainability challenge in such a way that it becomes more manageable for government policy.
A third article examines how 31 European countries have built supportive institutions of MBOR between 1992 and 2012. In particular during the 1990s and early 2000s much hope was put into the institutionalisation of Environmental Policy Integration (EPI) as a way to overcome sectoral thinking in sustainability policy making and integrate issues of environmental sustainability into all government policy. However, despite high political backing (FN, EU, OECD), implementation of EPI seems to differ widely among countries. The study is a quantitative longitudinal cross-country comparison of how countries’ ‘EPI architectures’ have developed over time. Moreover, it asks which ‘EPI architectures’ seem to be more effective in producing more ‘stringent’ sustainability policy.
In this Thesis, the properties of aqueous hemicellulose polysaccharides are investigated using computer simulations. The high swelling capacity of materials composed of these molecules allows the generation of directed motion in plant materials entirely controlled by water uptake.
To explore the molecular origin of this swelling capacity, a computational model with atomistic resolution for hemicellulose polysaccharides is build and validated in comparison with experiments. Using this model, simulations of small polysaccharides are employed to gain an understanding of the interactions of these molecules with water, the influence of water on their conformational freedom, and the swelling capacity quantified in terms of osmotic pressure. It is revealed that the branched hemicellulose polysaccharides show different hydration characteristics compared to linear polysaccharides.
To study swelling properties on length and time scales that exceed the limitations imposed by atomistic simulations, a procedure to obtain transferable coarse-grain models is developed. The transferability of the coarse-grain models over both different degrees of polymerization as well as different solute concentrations is demonstrated. Therefore, the procedure allows the construction of large coarse-grained systems based on small atomistic reference systems. Finally, the coarse-grain model is applied to demonstrate that linear and branched polysaccharides show a different swelling behavior when coupled to a water bath.
Was und von wem wurde mit wissenschaftlichem Anspruch während des ersten Drittels des 20. Jahrhunderts über Antisemitismus in Deutschland gearbeitet und geschrieben? Welche Ansätze bot die frühe Antisemitismusforschung? Das sind die Leitfragen dieser Studie, die ein Stück Kulturund Wissenschaftsgeschichte zugleich bietet. Darüber hinaus schlägt das Buch einen Bogen zur Geschichte des Abwehrkampfs gegen den Antisemitismus bis 1933. Das Fazit: Bereits in der Weimarer Republik existierte ein tiefergehendes Wissen über den Antisemitismus, das jedoch für den Abwehrkampf gegen antisemitische und völkische Bewegungen wenig Perspektiven bieten konnte.
Bedeutung der abhängigen Streuung für die optischen Eigenschaften hochkonzentrierter Dispersionen
(2016)
Ecosystems' exposure to climate change - Modeling as support for nature conservation management
(2016)
Seit Jahren steigen Politikverdrossenheit und die Zahl der Menschen an, die sich von der Gesellschaft exkludiert fühlen. Können Basisaktivierung durch Quartiersmanagement und Community Organizing diesen Trends entgegenwirken? Fördert die Ermöglichung der gesellschaftlichen Teilhabe von benachteiligten Bevölkerungsgruppen die Sozialkapitalbildung im Sinne Putnams? Um diese Fragen zu beantworten, wurden die vorhandene Literatur analysiert und zahlreiche Experteninterviews geführt.
Implementation of a plasmodesmata gatekeeper system, and its effect on intercellular transport
(2016)
The horse is a fascinating animal symbolizing power, beauty, strength and grace. Among all the animal species domesticated the horse had the largest impact on the course of human history due to its importance for warfare and transportation. Studying the process of horse domestication contributes to the knowledge about the history of horses and even of our own species.
Research based on molecular methods has increasingly focused on the genetic basis of horse domestication. Mitochondrial DNA (mtDNA) analyses of modern and ancient horses detected immense maternal diversity, probably due to many mares that contributed to the domestic population. However, mtDNA does not provide an informative phylogeographic structure. In contrast, Y chromosome analyses displayed almost complete uniformity in modern stallions but relatively high diversity in a few ancient horses. Further molecular markers that seem to be well suited to infer the domestication history of horses or genetic and phenotypic changes during this process are loci associated with phenotypic traits.
This doctoral thesis consists of three different parts for which I analyzed various single nucleotide polymorphisms (SNPs) associated with coat color, locomotion or Y chromosomal variation of horses. These SNPs were genotyped in 350 ancient horses from the Chalcolithic (5,000 BC) to the Middle Ages (11th century). The distribution of the samples ranges from China to the Iberian Peninsula and Iceland. By applying multiplexed next-generation sequencing (NGS) I sequenced short amplicons covering the relevant positions: i) eight coat-color-associated mutations in six genes to deduce the coat color phenotype; ii) the so-called ’Gait-keeper’ SNP in the DMRT3 gene to screen for the ability to amble; iii) 16 SNPs previously detected in ancient horses to infer the corresponding haplotype. Based on these data I investigated the occurrence and frequencies of alleles underlying the respective phenotypes as well as Y chromosome haplotypes at different times and regions. Also, selection coefficients for several Y chromosome lineages or phenotypes were estimated.
Concerning coat color differences in ancient horses my work constitutes the most comprehensive study to date. I detected an increase of chestnut horses in the Middle Ages as well as differential selection for spotted and solid phenotypes over time which reflects changing human preferences.
With regard to ambling horses, the corresponding allele was present in medieval English and Icelandic horses. Based on these results I argue that Norse settlers, who frequently invaded parts of Britain, brought ambling individuals to Iceland from the British Isles which can be regarded the origin of this trait. Moreover, these settlers appear to have selected for ambling in Icelandic horses.
Relating to the third trait, the paternal diversity, these findings represent the largest ancient dataset of Y chromosome variation in non-humans. I proved the existence of several Y chromosome haplotypes in early domestic horses. The decline of Y chromosome variation coincides with the movement of nomadic peoples from the Eurasian steppes and later with different breeding practices in the Roman period.
In conclusion, positive selection was estimated for several phenotypes/lineages
in different regions or times which indicates that these were preferred by humans. Furthermore, I could successfully infer the distribution and dispersal of horses in association with human movements and actions. Thereby, a better understanding of the influence of people on the changing appearance and genetic diversity of domestic horses could be gained. My results also emphasize the close relationship of ancient genetics and archeology or history and that only in combination well-founded conclusions can be reached.
Boom in der Krise
(2016)
Über das Verhältnis von Konsum und Individualität.
Konsum, Tourismus, Autofahren - sind die 1970er Jahre mit diesen Schlagworten adäquat beschrieben, oder handelt es sich nicht vielmehr um ein Jahrzehnt der Krisen? Einerseits war der Alltag der westdeutschen und britischen Bevölkerung durch eine kontinuierliche Ausweitung der Konsummöglichkeiten geprägt. Andererseits kommen die Folgen des Ölschocks im Bild der leeren Autobahnen zum Ausdruck. Sina Fabian greift beide Erzählweisen auf und diskutiert die 1970er Jahre im Spannungsverhältnis von Krise und Boom. Sie untersucht den Einfluss von Ölpreis- und Wirtschaftskrisen auf den Tourismus und die PKW-Nutzung als zwei teuren Konsumgütern, die in beiden Ländern gerade während des Untersuchungszeitraums an Bedeutung gewannen. Ebenso fragt sie, inwieweit sich der steigende Konsum tatsächlich als Ausdruck fortschreitender Individualisierung begreifen lässt? Stellen Pauschalreisen und Fließbandprodukte die Individualisierungsthese nicht weit eher in Frage? Anhand unterschiedlicher Quellen, die von statistischen Erhebungen bis hin zu Tagebüchern und Reiseberichten aus der Bevölkerung reichen, relativiert die Autorin herkömmliche Lesarten der inzwischen vielfach historisierten 1970er Jahre.