Refine
Year of publication
- 2017 (117) (remove)
Document Type
- Doctoral Thesis (117) (remove)
Language
- German (117) (remove)
Keywords
- Calciumphosphat (2)
- Depression (2)
- FRET (2)
- Gold (2)
- Lebensqualität (2)
- Politik (2)
- depression (2)
- gold (2)
- quality of life (2)
- 2P-FRET (1)
Institute
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik.
Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse.
Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen.
Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten.
Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat.
Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen.
Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt.
Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert.
Dem Unternehmenskauf geht eine langwierige Planungs- und Verhandlungsphase voraus. Dabei steht vor allem der gegenseitige Informationsaustausch beider Parteien im Vordergrund. Der Grundsatz der informationellen Selbstverantwortung zwingt zunächst jede Partei, die vorherrschende Informationsasymmetrie auf eigenes Risiko zu beseitigen. Das wird seitens der Rechtsprechung stets anhand von außervertraglichen Aufklärungspflichten zugunsten des Käufers korrigiert, wenn Treu und Glauben es im Einzelfall gebieten. Die Untersuchung widmet sich der Konkretisierung des Inhalts, der Reichweite und Rechtsfolgen der vorvertraglichen Aufklärungspflichten unter Auswertung bisher ergangener Rechtsprechung und Beiträgen im Schrifttum. Ein besonderes Augenmerk wird dabei neben dem Institut der culpa in contrahendo auf die Voraussetzungen der §§123, 444 BGB gelegt. Ferner wird die Bedeutung von Treu und Glauben gem. §242 BGB für die Entstehung von Aufklärungspflichten vor dem Hintergrund der spezifischen Interessenlage der Parteien und der Besonderheiten des Unternehmenskaufs beleuchtet.
1850 wurde in Lengsfeld, einer Kleinstadt im Großherzogtum Sachsen-Weimar Eisenach, eine jüdisch-christliche Simultanschule gegründet. Das Innovative an dieser Schule war, dass sie als Einrichtung in gemeinsamer Trägerschaft der christlichen und jüdischen Gemeinde konzipiert wurde. Die Schuldeputierten und das Lehrerkollegium setzten sich paritätisch aus Juden und Christen zusammen. Dadurch sowie durch die gleichberechtigte Integration der christlichen und jüdischen Feiertage und des jeweiligen Religionsunterrichts in den Schulplan unterscheidet sich die Lengsfelder Schule fundamental von anderen jüdisch-christlichen Schulen ihrer Zeit. In der vorliegenden Studie wird die Schulgeschichte anhand von Akten konstruiert und in den Zusammenhang der deutsch-jüdischen Geschichte des 19. und beginnenden 20. Jahrhunderts gestellt. Mithilfe theoretischer Überlegungen zu Schultypen und Akkulturationskonzepten werden die Schule und ihre Akteure als aufgeklärt-reformerisch charakterisiert. Schließlich wird gezeigt, dass und warum die Lengsfelder Schule scheiterte.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
Für den Industrialisierungsprozess von Entwicklungs- und Schwellenländern haben ausländische Direktinvestitionen (ADI) eine wichtige Funktion. Sie können zum einen zu einer Erhöhung des industriellen Output des Ziellandes führen und zum anderen als Träger von technologischem Wissen fungieren. Neues Wissen kann den Empfängerländern der ADI durch Spillovereffekte und Technologietransfers ausländischer Tochterunternehmen zufließen. Diese Arbeit soll Antworten auf die Fragen geben, durch welche Mechanismen Spillovereffekte und Technologietransfers ausgelöst werden und wie Entwicklungs- und Schwellenländern diesen Wissenszufluss zur Beschleunigung ihres Industrialisierungsprozesses einsetzen können. Hierfür wird ein Konzept zur Förderung von Spillovereffekten entwickelt. Weiterhin wird ein theoretisches Modell entwickelt, in dem der Technologietransfer ausländischer Exportplattformen erstmals in Abhängigkeit des Anteils der Vorprodukte, die im Gastland nachgefragt werden, untersucht. In den Fallstudien Irland und Malaysia werden die Ergebnisse des theoretischen Modells sowie des entwickelten Konzepts illustriert.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
In Zeiten eines sich schnell ändernden und vielseitigen Energiemarktes müssen Kohlenstoffmaterialien für verschiedene Anforderungen einsetzbar sein. Dies erfordert flexibel synthetisierbare Kohlenstoffmaterialien bevorzugt aus günstigen und nachhaltigen Kohlenstoffquellen. Es ist allerdings nicht leicht Vorläuferverbindungen auszumachen, welche sich einerseits für verschiedene Herstellungsverfahren eignen und deren Kohlenstoffprodukte andererseits in spezifischen Eigenschaften, wie der Struktur, des Stickstoffanteils, der Oberfläche und der Porengrößen, eingestellt werden können. In diesem Zusammenhang können natürliche Polyphenole, etwa überschüssige Tannine aus der Weinproduktion, eine neue Welt zu hoch funktionalen und vielseitig einstellbaren Kohlenstoffmaterialien mit hohen Ausbeuten öffnen.
Das Hauptziel dieser vorliegenden Thesis war es neue funktionale, einstellbare und skalierbare nanostrukturierte Kohlenstoffmaterialien aus Tanninen (insbesondere Tanninsäure) für unterschiedliche elektrochemische Zwecke zu synthetisieren und zu charakterisieren. Ermöglicht wurde dies durch unterschiedliche synthetische Herangehensweisen, wie etwa der polymeren Strukturdirektion, dem ionothermalen Templatieren und der weichen Templatierung. An Stelle des weitläufig gebräuchlichen, aber kanzerogenen Vernetzungsagens Formaldehyd wurden bei den vorgestellten Synthesen Harnstoff und Thioharnstoff gewählt, um zugleich die synthetisierten Kohlenmaterialien variabel dotieren zu können.
Daher wurden im ersten Teil der Arbeit die Wechselwirkungen, Reaktionen und thermischen Verhaltensweisen von Tanninsäure und Mixturen von Tanninsäure und Harnstoff bzw. Thioharnstoff untersucht, um daraus wichtige Erkenntnisse für die verschiedenen Kohlenstoffsynthesen zu gewinnen.
Durch die Verwendung eines polymeren Strukturierungsagenz Pluronic P123 konnten in einer ersten Kohlenstoffsynthese nachhaltige und dotierbare Kohlenstoffpartikel mit Durchmessern im Nanometerbereich aus Tanninsäure und Harnstoff hergestellt werden. Es konnte dabei gezeigt werden, dass durch die Modifikation der verschiedenen Syntheseparameter die Kohlenstoffnanopartikel gemäß ihres gemittelten Partikeldurchmessers, ihrer BET-Oberfläche, ihrer Komposition, ihrer Leitfähigkeit und ihrer chemischen Stabilität einstellbar sind. Dies eröffnete die Möglichkeit diese Kohlenstoffpartikel als alternatives und nachhaltiges Rußmaterial einzusetzen.
Weiterhin war es durch die ionothermale Templatierung möglich poröse, dotierte und kontrollierbare Kohlenstoffpartikel mit hohen spezifischen Oberflächen aus den gewählten Präkursorverbindungen zu synthetisieren, die sich für den Einsatz in Superkondensatoren eignen.
Auf diesen Erkenntnissen aufbauend konnten mittels der Rotationsbeschichtung poröse binderfreie und strukturierte Kohlenstofffilme synthetisiert werden, die eine spinodale Struktur aufwiesen. Anhand der Modifikation der Stammlösungskonzentration, der Rotationsgeschwindigkeit und der verwendeten Substrate konnten die Filmdicke (100-1000 nm), die Morphologie und Gesamtoberfläche gezielt beeinflusst werden. Die erweiterte elektrochemische Analyse zeigte außerdem ein sehr gut zugängliches Porensystem der porösen Kohlenstofffilme.
Allumfassend konnten demnach verschiedene Synthesewege für Kohlenstoffmaterialien aus Tanninen aufgezeigt werden, die verschiedenartig strukturiert und kontrolliert werden können und sich für diverse Anwendungsgebiete eignen.
Nicht jeder kann sich wegen Strafvereitelung durch Nichtanzeige einer Straftat bei der Staatsanwaltschaft strafbar machen. Doch wie ist es, wenn eine Anzeige unterbleibt, nachdem die Stellen zur Bekämpfung von Fehlverhalten im Gesundheitswesen einen Verdacht festgestellt haben?
Die Arbeit gibt, nach eingehenden Untersuchungen, die Antwort. Sie zeigt, wer sich strafbar machen kann, erläutert das Aufgabenfeld der Stellen, die Voraussetzungen der Anzeigepflicht und die einzelnen strafrechtlichen Problempunkte. Zu entscheidenden Streitfragen bezieht die Untersuchung Stellung. Beantwortet werden diverse Fragen, u.a. ob die Vorstandsmitglieder der Kassenärztlichen Vereinigungen, der Orts-, Betriebs-, Innungs- und Ersatzkassen, die Geschäftsführer der Deutschen Rentenversicherung Knappschaft-Bahn-See und der Sozialversicherung für Landwirtschaft, Forsten und Gartenbau sowie die Mitarbeiter der jeweiligen Stellen, Garanten zum Schutz der Strafrechtspflege sind.
Virtuelle Welten wie World of Warcraft oder Second Life werden weltweit von vielen Millionen Menschen genutzt. Aufgrund der vielfältigen Interaktionsmöglichkeiten der Nutzer untereinander kommt es dabei immer wieder auch zu Verhaltensweisen, die die Frage nach strafrechtlicher Relevanz aufwerfen. Sebastian Bosch greift in seiner Arbeit einzelne Tatbestände des deutschen StGB heraus und untersucht diese auf ihre Begehbarkeit innerhalb virtueller Welten. Besondere Aufmerksamkeit wird dabei dem Betrug gem. § 263 StGB gewidmet, da dieser im Hinblick auf den speziellen »Tatort« der virtuellen Welten besonders interessante Fragen aufwirft. Im Anschluss daran wird untersucht, ob der Täter einer solchen Straftat auch entsprechend bestraft werden sollte, oder ob sich aufgrund des Spielcharakters virtueller Welten nicht eine Privilegierung aufdrängt, wie sie aus dem Sportstrafrecht bekannt ist. Der Autor gelangt zu dem Ergebnis, dass eine Privilegierung vorgenommen werden sollte, soweit es sich bei der verletzenden Handlung um eine spiel- bzw. weltenkonforme Handlung handelt.
Der Erfolg eines Finanzinstituts im Kreditgeschäft mit Firmenkunden wird maßgeblich von der Fähigkeit bestimmt, die künftige Bonität von Unternehmen einzuschätzen. Durch eine zunehmend starke Regulierung und einen sich verschärfenden Wettbewerb gewinnen prognosestarke Kreditrisikomodelle weiter an Bedeutung. Sowohl in der theoretischen Forschung als auch in der Regulierungspraxis, wie in der Kreditwirtschaft insgesamt, dominieren jedoch seit Jahrzehnten Modelle und Verfahren der Ausfallprognose, welche eine starke Vergangenheitsorientierung implizieren. Dies betrifft im Grunde die gesamte betriebswirtschaftliche Krisenforschung.
Dieses Spannungsfeld – einhergehend mit einer mangelnden theoretischen Fundierung bisheriger Ansätze zur Bonitätsprognose – greift der Autor auf, indem er die Logik des Unternehmensbewertungsmodells von Schwartz/Moon (2001) auf die Ausfallprognose von Unternehmen überträgt. Erweiterungen dieses Modells, etwa um die Berücksichtigung qualitativer Einflussfaktoren wie der Managementqualität, resultieren im Potsdamer Modell zur simulativen Prognose der Ausfallwahrscheinlichkeit von Unternehmen. Ausgangspunkt des Verfahrens bildet die Monte Carlo Simulation, wodurch – im Gegensatz zu traditionellen Verfahren der Insolvenzprognose – ökonomisch fundierte Ursache-Wirkungszusammenhänge einen Ausfall definieren. Die empirische Untersuchung verdeutlicht das große Potenzial des Modells und damit einhergehend die Notwendigkeit eines Paradigmenwechsels bei der Prognose der Ausfallwahrscheinlichkeit von Unternehmen.
Simulationskonzept zur Nutzenvalidierung cyber-physischer Systeme in komplexen Fabrikumgebungen
(2017)
Mit Inkrafttreten der NFA 2008 hat die Schweiz ihren Finanzausgleich umfassend reformiert und erstmals auch einen direkt umverteilenden Ausgleich zwischen den Kantonen geschaffen. Diese Reform blieb auf deutscher Seite weitgehend unbeachtet. Der Autor vergleicht zunächst die finanzverfassungsrechtlichen Grundstrukturen in beiden Ländern und erläutert das bestehende und das ab 2020 geltende deutsche System. Dem folgt eine umfassende Analyse des sekundären Finanzausgleichs in der Schweiz, sog. Finanzausgleich im engeren Sinn, mit ausführlicher Darstellung des Ressourcenausgleichs sowie des geografisch-topografischen und soziodemografischen Lastenausgleichs. Im Anschluss werden nach Problemschwerpunkten gegliedert Reformoptionen für Deutschland aufgezeigt. Der Autor plädiert insbesondere für einen nach Schweizer Vorbild gestalteten indikatorbasierten Lastenausgleich, um dem verfassungsrechtlichen Benennungs- und Begründungsgebot bei Sonderlasten besser gerecht zu werden.
In der vorliegenden Arbeit konnten erfolgreich zwei unterschiedliche Hybridmaterialien (HM) über die Sol-Gel-Methode synthetisiert werden. Bei den HM handelt es sich um Monolithe mit einem Durchmesser von bis zu 4,5 cm. Das erste HM besteht aus Titandioxid und Bombyx mori Seide und wird als TS bezeichnet, während das zweite weniger Seide und zusätzlich Polyethylenoxid (PEO) enthält und daher als TPS abgekürzt wird. Einige der HM wurden nach der Synthese in eine wässrige Tetrachloridogoldsäure-Lösung getaucht, wodurch sich auf der Oberfläche Goldnanopartikel gebildet haben.
Die Materialien wurden mittels Elektronenmikroskopie, energiedispersiver Röntgenspektroskopie, Ramanspektroskopie sowie Röntgenpulverdiffraktometrie charakterisiert. Die Ergebnisse zeigen, dass beide HM aus etwa 5 nm großen, sphärischen Titandioxidnanopartikeln aufgebaut sind, die primär aus Anatas und zu einem geringen Anteil aus Brookit bestehen. Die Goldnanopartikel bei TPS_Au waren größer und polydisperser als die Goldnanopartikel auf dem TS_Au HM. Darüber hinaus sind die Goldnanopartikel im TS HM tiefer in das Material eingedrungen als beim TPS HM.
Die weiterführende Analyse der HM mittels Elementaranalyse und thermogravimetrischer Analyse ergab für TPS einen geringeren Anteil an organischen Bestandteilen im HM als für TS, obwohl für beide Synthesen die gleiche Masse an organischen Materialien eingesetzt wurde. Es wird vermutet, dass das PEO während der Synthese teilweise wieder aus dem Material herausgewaschen wird. Diese Theorie korreliert mit den Ergebnissen aus der Stickstoffsorption und der Quecksilberporosimetrie, die für das TPS HM eine höhere Oberfläche als für das TS HM anzeigten.
Die Variation einiger Syntheseparameter wie die Menge an Seide und PEO oder die Zusammensetzung der Titandioxidvorläuferlösung hatte einen großen Einfluss auf die synthetisierten HM. Während unterschiedliche Mengen an PEO die Größe des HM beeinflussten, konnte ohne Seide kein HM in einer ähnlichen Größe hergestellt werden. Die Bildung der HM wird stark von der Zusammensetzung der Titandioxidvorläuferlösung beeinflusst. Eine Veränderung führte daher nur selten zur Bildung eines homogenen HM.
Die in dieser Arbeit synthetisierten HM wurden als Photokatalysatoren für die Wasserspaltung und den Abbau von Methylenblau eingesetzt. Bei der photokatalytischen Wasserspaltung wurde zunächst der Einfluss unterschiedlicher Goldkonzentrationen beim TPS HM auf die Wasserstoffausbeute untersucht. Die besten Ergebnisse wurden bei einer Menge von 2,5 mg Tetrachloridogoldsäure erhalten. Darüber hinaus wurde gezeigt, dass mit dem TPS HM eine deutlich höhere Menge an Wasserstoff gewonnen werden konnte als mit dem TS HM. Die Ursachen für die schlechtere Aktivität werden in der geringeren spezifischen Oberfläche, der unterschiedlichen Porenstruktur, dem höheren Anteil an Seide und besonders in der geringeren Größe und höheren Eindringtiefe der Goldnanopartikel vermutet. Darüber hinaus konnte mit einem höheren UV-Anteil in der Lichtquelle sowie durch die Zugabe von Ethanol als Opferreagenz eine Zunahme der Wasserstoffausbeute erzielt werden.
Bei dem Methylenblauabbau wurde für beide HM zunächst nur eine Adsorption des Methylenblaus beobachtet. Nach der Zugabe von Wasserstoffperoxid konnte nach 8 h bereits eine fast vollständige Oxidation des Methylenblaus unter sichtbarem Licht beobachtet werden. Die Ursache für die etwas höhere Aktivität von TPS gegenüber TS wird in der unterschiedlichen Porenstruktur und dem höheren Anteil an Seide im TS HM vermutet. Insgesamt zeigen beide HM eine gute photokatalytische Aktivität für den Abbau von Methylenblau im Vergleich zu den erhaltenen Werten aus der Literatur.
Schwankende Ansichten
(2017)
Neu sehen, anders sehen - seit dem 19. Jahrhundert hat sich in der Literatur eine Ästhetik alternativer Sehformen etabliert, die die eigene Wahrnehmung zunehmend infrage stellt und sich in der Figur des Schwankens manifestiert.
Robert Schade eröffnet einen Einblick in die Geschichte dieser alternativen Sehformen, indem er ausgehend von ökonomischen Wahrnehmungstheorien des 19. und 20. Jahrhunderts Fragestellungen aus Psychologie, Philosophie und Ästhetik verfolgt. Er stellt auf diesem Wege erstmals eine Verbindung zwischen der Sehtheorie Hermann von Helmholtz' und der Verfremdungsästhetik Viktor Shklovskijs her. Am Beispiel von vier Werkuntersuchungen (von Gustave Caillebotte, Andrej Belyj, H.G. Wells und Luigi Pirandello) werden die Vernetztheit und das kritische Potenzial der Figur des Schwankens in unterschiedlichen Diskursen illustriert.
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Incredible !ndia – Indienreisende haben viele Eindrücke im Gepäck. Dabei sind Weblogs ein noch relativ junges Tool zur Kommunikation und Aufzeichnung der gemachten Erfahrungen. In ihrer Studie zeichnet Maria Rost aktuelle Perzeptionen und Präsentationen der Destination Indien nach mit dem Ziel, den höchst unterschiedlichen Facetten visueller, akustischer, olfaktorischer, gustatorischer und taktiler Erfahrungen von bloggenden Reisenden auf die Spur zu kommen. Vor diesem Hintergrund werden nicht nur die Handlungspraktiken der Akteure analysiert und Entwicklungsprozesse anhand von Stadtbeschreibungen, Alltagsbeobachtungen, Zeitwahrnehmungen und Selbstbeobachtungen festgehalten, sondern ergänzend zu den Weblog-Einträgen auch gepostete Fotografien herangezogen und leitfadengestützte Interviews geführt.
Heutzutage ist es üblich, die Ehre als einen obsoleten Begriff zu betrachten, der nur einem archaischen Denkmodell zuzuordnen ist und keine handlungsprägende Größe in der Gegenwartsgesellschaft darstellt. Die Ehrenmorde, die heute noch in unterschiedlichen Teilen der Welt verübt werden, scheinen diese Behauptung zu bestätigen. In diesem Buch wird jedoch die These vertreten, dass nicht der Ehrbegriff, sondern seine Deutungen archaischer Natur und daher in Frage zu stellen sind. Die Ehre ist die Bezeichnung des sozialen Werts eines Menschen, den er infolge seiner achtenswerten Handlungen erlangt. Also kann sie kein Motiv für moralisch fragwürdige Praktiken bilden. Vor diesem Hintergrund werden die Formen und die Voraussetzungen der Ehre dargestellt, die sowohl in Bezug auf unsere Zeit anpassungsfähig als auch ethisch tragbar sind.
In der vorliegenden Arbeit wurden verschiedene Polymere hergestellt, die bestimmte funktionelle Gruppen beinhalten. Diese Gruppen werden zum Teil durch Alkylketten geschützt, zum Teil liegen sie ungeschützt im Polymer vor. Mit diesen Polymeren wurden Untersuchungen mit knochenähnlichen Materialien sogenanntem Calciumphosphat durchgeführt. Es wurde der Einfluss der verschiedenen Polymere auf die Bildung dieser knochenähnlichen Substanzen untersucht und auch der Einfluss auf die Stabilität und das Auflösungsverhalten der Calciumphosphate. Dabei sollte ein besonderes Augenmerk auf die funktionellen Gruppen, sogenannte Phosphonsäuren und deren Ester, die die Phosphonsäuren schützen, gesetzt werden. Es stellte sich heraus, dass bei der Bildung der knochenähnlichen Materialien die Polymere mit Estergruppen eine leichte Förderung der Calciumphosphat-Bildung verursachen, während die ungeschützten Polymere die Bildung des „Knochenmaterials“ sehr stark verzögern. Dieser Effekt verstärkt sich noch, wenn eine weitere bestimmte Komponente zum Polymer hinzukommt und somit ein Copolymer gebildet wird. Diese Copolymere beschleunigen bzw. verlangsamen die Calciumphosphatbildung noch stärker. Werden Polymere mit einem anderen Polymergerüst aber den gleichen Phosphonsäuresetern in den Seitenketten verwendet, ändert sich der Einfluss der Calciumphosphat-Bildung wenig. Verglichen mit Polymeren ohne solche Phosphonsäuregruppen wird erkennbar, dass es weniger die Phosphonsäuregruppe ist, die die Mineralisation beeinflusst, sondern es eher eine Folge der Säure im Polymer ist.
Wird die Stabilisierung und Auflösung der Knochenähnlichen Substanzen betrachtet, fällt auf, dass auch hier wieder die Säuren den größten Effekt ausüben. Die Phosphonsäuregruppen scheinen dabei jedoch tatsächlich einen besonderen Effekt auszuüben, da bei diesen die Stabilisierung und auch das Auflösungsvermögen von Calciumphospaht von allen untersuchten Polymeren am größten sind.
In der Arbeit konnte außerdem gezeigt werden, dass die Polymere und Copolymere mit Phosphonsäuregruppen einen leicht positiven Effekt auf die Zahngesundheit zeigen. Die Zahl von Bakterien auf der Zahnoberfläche konnte reduziert werden und bei der Untersuchung der Zahnauflösung wurde eine glattere Zahnoberfläche erhalten, jedoch wurde auch mit den untersuchten Polymeren der Zahn im Inneren angegriffen. Weitere Untersuchungen können hier noch genaueren Aufschluss geben. Außerdem sollten auch die Polymere mit dem unterschiedlichen Polymergerüst und Phosphonsäureestergruppen untersucht werden.
Letztere Polymere wurden verwendet, um festere “gelartige“ Polymernetzwerke herzustellen und deren Einfluss auf die Calciumphosphatmineralisation zu untersuchen. Es stellte sich heraus, dass ohne das Einbetten einiger Calciumphosphatteilchen keine Bildung von Calciumphospaht an den Materialien ausgelöst wurde, wurden die sogenannten Hydrogele jedoch mit Calciumphosphatpartikeln geimpft, konnte deutliches weiteres Calciumphosphatwachstum beobachtet werden. Das Material lässt sich auch in verschiedene Formen bringen. Somit könnte das System nach weiteren Untersuchungen zur Verträglichkeit mit Zellen oder Geweben ein mögliches Material für Implantate darstellen, mit denen gezielt Knochenwachstum eingeleitet werden könnte.
Bei der Autorin Judith Hermann handelt es sich um eine sehr resonanzträchtige Autorin, der in der Vergangenheit eine phänomenale Aufmerksamkeit zuteil wurde und die es schaffte, sich erfolgreich auf dem Marktplatz Literatur zu positionieren und zur Bestsellerautorin zu avancieren.
Die vorliegende Studie verfolgt das Ziel, der Marke Judith Hermann auf die Spur zu kommen und die höchst unterschiedlichen Facetten der Erfolgsgeschichte zu rekonstruieren.
Juliane Witzke analysiert dazu detailliert die peri- und epitextuellen Praktiken der Jahre 1998 bis 2014 und bezieht sich dabei auf die Paratexte der ersten vier Werke der Autorin. Ergänzt werden diese Begleittexte durch eine Analyse der Bild- und Tondokumente sowie der Buchpreisverleihungen. Die grundlegende Frage lautet: Wie ist der Wandel der Inszenierungspraktiken gestaltet? Des Weiteren gibt die Arbeit – anhand von 100 Büchern der Gegenwart – Aufschluss über Strategien der Lektürelenkung der letzten 16 Jahre.
Der Gesetzgeber hat im Jahre 2006 in § 4 Abs. 1 S. 3 EStG und § 12 Abs. 1 S. 1 KStG zentrale ertragsteuerliche Entstrickungstatbestände eingefügt. Sie ordnen bei Ausschluss oder Beschränkung des deutschen Besteuerungsrechts hinsichtlich des Gewinns aus der Veräußerung oder Nutzung eines Wirtschaftsguts die Rechtsfolgen einer Entnahme bzw. einer Veräußerung oder Überlassung zum gemeinen Wert an.
Jenny Broekmann untersucht die zweite Variante (Nutzungsentstrickung) dieser Entstrickungstatbestände hinsichtlich Voraussetzungen und Rechtsfolge. Dabei analysiert sie auch die erforderlichen Abgrenzungen des Nutzungstatbestandes und den Bezugspunkt des deutschen Besteuerungsrechts. Insbesondere geht sie der Frage nach, ob dem Nutzungstatbestand ein eigenständiger Anwendungsbereich verbleibt und ob dieser auch vor dem Hintergrund abkommensrechtlicher Regelungen bestehen kann. Abschließend erarbeitet sie für die Formulierung und systematische Stellung der Nutzungsentstrickung Verbesserungsvorschläge.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von anisotropen Goldnanopartikeln in einer geeigneten Polyelektrolyt-modifizierten Templatphase. Der Mittelpunkt bildet dabei die Auswahl einer geeigneten Templatphase, zur Synthese von einheitlichen und reproduzierbaren anisotropen Goldnanopartikeln mit den daraus resultierenden besonderen Eigenschaften. Bei der Synthese der anisotropen Goldnanopartikeln lag der Fokus in der Verwendung von Vesikeln als Templatphase, wobei hier der Einfluss unterschiedlicher strukturbildender Polymere (stark alternierende Maleamid-Copolymere PalH, PalPh, PalPhCarb und PalPhBisCarb mit verschiedener Konformation) und Tenside (SDS, AOT – anionische Tenside) bei verschiedenen Synthese- und Abtrennungsbedingungen untersucht werden sollte.
Im ersten Teil der Arbeit konnte gezeigt werden, dass PalPhBisCarb bei einem pH-Wert von 9 die Bedingungen eines Röhrenbildners für eine morphologische Transformation von einer vesikulären Phase in eine röhrenförmige Netzwerkstruktur erfüllt und somit als Templatphase zur formgesteuerten Bildung von Nanopartikeln genutzt werden kann.
Im zweiten Teil der Arbeit wurde dargelegt, dass die Templatphase PalPhBisCarb (pH-Wert von 9, Konzentration von 0,01 wt.%) mit AOT als Tensid und PL90G als Phospholipid (im Verhältnis 1:1) die effektivste Wahl einer Templatphase für die Bildung von anisotropen Strukturen in einem einstufigen Prozess darstellt. Bei einer konstanten Synthesetemperatur von 45 °C wurden die besten Ergebnisse bei einer Goldchloridkonzentration von 2 mM, einem Gold-Templat-Verhältnis von 3:1 und einer Synthesezeit von 30 Minuten erzielt. Ausbeute an anisotropen Strukturen lag bei 52 % (Anteil an dreieckigen Nanoplättchen von 19 %). Durch Erhöhung der Synthesetemperatur konnte die Ausbeute auf 56 % (29 %) erhöht werden.
Im dritten Teil konnte durch zeitabhängige Untersuchungen gezeigt werden, dass bei Vorhandensein von PalPhBisCarb die Bildung der energetisch nicht bevorzugten Plättchen-Strukturen bei Raumtemperatur initiiert wird und bei 45 °C ein Optimum annimmt.
Kintetische Untersuchungen haben gezeigt, dass die Bildung dreieckiger Nanoplättchen bei schrittweiser Zugabe der Goldchlorid-Präkursorlösung zur PalPhBisCarb enthaltenden Templatphase durch die Dosierrate der vesikulären Templatphase gesteuert werden kann. In umgekehrter Weise findet bei Zugabe der Templatphase zur Goldchlorid-Präkursorlösung bei 45 °C ein ähnlicher, kinetisch gesteuerter Prozess der Bildung von Nanodreiecken statt mit einer maximalen Ausbeute dreieckigen Nanoplättchen von 29 %.
Im letzten Kapitel erfolgten erste Versuche zur Abtrennung dreieckiger Nanoplättchen von den übrigen Geometrien der gemischten Nanopartikellösung mittels tensidinduzierter Verarmungsfällung. Bei Verwendung von AOT mit einer Konzentration von 0,015 M wurde eine Ausbeute an Nanoplättchen von 99 %, wovon 72 % dreieckiger Geometrien hatten, erreicht.
Aufgrund verschiedener wissenschaftlicher Erkenntnisse wird jungen Sporttreibenden vom Gebrauch von Nahrungsergänzungsmitteln (NEM) abgeraten. Diese Dissertation verfolgt vor dem Hintergrund der Theorie der Zielsysteme (TDZ) das Ziel der Erstellung anwendungsorientieren Handlungswissens, anhand dessen Interventionsempfehlungen zur Reduzierung des prävalenten NEM-Konsums im Nachwuchssport ableitbar sind. Insgesamt wurden sechs Untersuchungen durchgeführt. Die Versuchsteilnehmenden absolvierten in sämtlichen Studien eine Variante der lexikalischen Entscheidungsaufgabe. Diese Aufgabe diente der Operationalisierung von automatisch aktivier- und abrufbaren nahrungsergänzungsmittelbezogenen Ziel-Mittel-Relationen.
In einer Stichprobe von Sportstudierenden zeigte sich, dass NEM mit dem Ziel Leistung assoziiert sind (Studie 1). Unter Berücksichtigung des NEM-Konsums wurde dieses Ergebnis für Nachwuchsathletinnen und -athleten aus dem Breitensport repliziert (Studie 2). Zusätzlich konnte in beiden Studien die Bedeutung dieser Ziel-Mittel-Relationen für das Verhalten nachgewiesen werden. In den nachfolgenden Untersuchungen wurden spezifische Veränderungsmechanismen der verhaltensleitenden Ziel-Mittel-Relation aus Leistung und NEM zunächst an Sportstudierenden experimentell evaluiert. Durch das Herausstellen der fehlenden leistungssteigernden Wirkung von NEM konnte diese Zielassoziation nicht modifiziert werden (Studie 3). Das Betonen gesundheitsschädigender Konsequenzen (Studie 4) und das Akzentuieren einer gesunden Ernährung (Studie 5) erwiesen sich demgegenüber als geeignet zur Veränderung der Ziel-Mittel-Relation. Das Herausstellen einer gesunden Ernährung führte deskriptiv bei Nachwuchsathletinnen und -athleten ebenfalls zur Modifikation der Zielassoziation (Studie 6). Die inferenzstatistische Bestätigung der Ergebnisse dieser Studie steht aufgrund der geringen Teststärke der Untersuchung noch aus.
Insgesamt verdeutlichen die Ergebnisse, dass die auf Ebene automatischer Kognitionen bestehende und verhaltensleitende Assoziation des Gebrauchs von NEM mit Leistung durch die Akzentuierung gesundheitlicher Perspektiven experimentell verändert werden kann. Abschließend wird die theoretische und praktische Bedeutung des erstellten Handlungswissen für künftige Interventionsempfehlungen zur Reduzierung des Gebrauchs von NEM diskutiert.
Hintergrund
Für Patienten mit hochgradiger Aortenklappenstenose, die aufgrund ihres Alters oder ihrer Multimorbidität ein hohes Operationsrisiko tragen, konnte mit der kathetergestützten Aortenklappenkorrektur (transcatheter aortic valve implantation, TAVI) eine vielversprechende Alternative zum herzchirurgischen Eingriff etabliert werden. Explizite Daten zur multidisziplinären kardiologischen Rehabilitation nach TAVI liegen bislang nicht vor. Ziel vorliegender Arbeit war, den Effekt der kardiologischen Rehabilitation auf die körperliche Leistungsfähigkeit, den emotionalen Status, die Lebensqualität und die Gebrechlichkeit bei Patienten nach TAVI zu untersuchen sowie Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und der Lebensqualität zu identifizieren.
Methodik
Zwischen 10/2013 und 07/2015 wurden 136 Patienten (80,6 ± 5,0 Jahre, 47,8 % Männer) in Anschlussheilbehandlung nach TAVI in drei kardiologischen Rehabilitationskliniken eingeschlossen. Zur Beurteilung des Effekts der kardiologischen Rehabilitation wurden jeweils zu Beginn und Ende der Rehabilitation der Frailty (Gebrechlichkeits)-Index (Score bestehend aus Barthel-Index, Instrumental Activities of Daily Living, Mini Mental State Exam, Mini Nutritional Assessment, Timed Up and Go und subjektiver Mobilitätsverschlechterung), die Lebensqualität im Short-Form 12 (SF-12) sowie die funktionale körperliche Leistungsfähigkeit im 6-Minuten Gehtest (6-minute walk test, 6MWT) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie erhoben. Zusätzlich wurden soziodemographische Daten (z. B. Alter und Geschlecht), Komorbiditäten (z. B. chronisch obstruktive Lungenerkrankung, koronare Herzkrankheit und Karzinom), kardiovaskuläre Risikofaktoren und die NYHA-Klasse dokumentiert. Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität wurden mit Kovarianzanalysen angepasst.
Ergebnisse
Die maximale Gehstrecke im 6MWT konnte um 56,3 ± 65,3 m (p < 0,001) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie um 8,0 ± 14,9 Watt (p < 0001) gesteigert werden. Weiterhin konnte eine Verbesserung im SF-12 sowohl in der körperlichen Summenskala um 2,5 ± 8,7 Punkte (p = 0,001) als auch in der psychischen Summenskala um 3,4 ± 10,2 Punkte (p = 0,003) erreicht werden. In der multivariaten Analyse waren ein höheres Alter und eine höhere Bildung signifikant mit einer geringeren Zunahme im 6MWT assoziiert, währenddessen eine bessere kognitive Leistungsfähigkeit und Adipositas einen positiven prädiktiven Wert aufwiesen. Eine höhere Selbstständigkeit und ein besserer Ernährungsstatus beeinflussten die Veränderung in der körperlichen Summenskala des SF-12 positiv, währenddessen eine bessere kognitive Leistungsfähigkeit einen Prädiktor für eine geringere Veränderung darstellte. Des Weiteren hatten die jeweiligen Ausgangswerte der körperlichen und psychischen Summenskala im SF-12 einen inversen Einfluss auf die Veränderungen in der gleichen Skala.
Schlussfolgerung
Eine multidisziplinäre kardiologische Rehabilitation kann sowohl die körperliche Leistungs-fähigkeit und Lebensqualität verbessern als auch die Gebrechlichkeit von Patienten nach kathetergestützter Aortenklappenkorrektur verringern. Daraus resultierend gilt es, spezifische Assessments für die kardiologische Rehabilitation zu entwickeln. Weiterhin ist es notwendig, individualisierte Therapieprogramme mit besonderem Augenmerk auf kognitive Funktionen und Ernährung zu initiieren, um die Selbstständigkeit hochbetagter Patienten zu erhalten bzw. wiederherzustellen und um die Pflegebedürftigkeit der Patienten hinauszuzögern.
Mietpreisbremse
(2017)
Der Zugang der Bevölkerung zu Wohnraum und die Bezahlbarkeit des Wohnens sind seit jeher Kernthemen der Sozialen Marktwirtschaft. Für den Gesetzgeber ist es nicht zuletzt angesichts von rund 23 Millionen Mieterhaushalten in Deutschland politisch attraktiv, mittels gesetzlicher Beschränkungen Einfluss auf die Mietpreisentwicklung zu nehmen. Das Werk zeigt die ökonomischen Auswirkungen derartiger Mietpreisbegrenzungen auf, untersucht ihre regulatorischen und privatrechtlichen Implikationen und arbeitet die Grenzen für eine verfassungskonforme Ausgestaltung heraus. Dabei nimmt der Autor auch zur Diskussion um die sog. Materialisierung des Privatrechts Stellung und entwickelt einen eigenen Ansatz, wie sich unter privatrechtlichen Gesichtspunkten Einschränkungen der Vertragsfreiheit rechtfertigen lassen. Die Arbeit schließt mit einer umfassenden Bewertung der im Jahr 2015 eingeführten Mietpreisbremse, in deren Rahmen insbesondere die Verfassungsmäßigkeit der Mietpreisbremse untersucht wird.
Ausgezeichnet mit dem Fakultätspreis der Universität Potsdam.
Medizincontrolling
(2017)
Erika Raab beleuchtet in diesem Buch aus verschiedenen Perspektiven dieRahmenbedingungen, die Entstehungsgeschichte, die Arbeitsgrundlagen und die Instrumentedes Medizincontrollings. In der Gesamtschau stellt die Analyse die erste umfassende Auseinandersetzung mit diesem Fachgebiet dar, welches in der Praxis seit der Einführung der Fallpauschalen (DRG) einer wachsenden Nachfrage unterliegt. Diese junge Fachdisziplin entwickelte sich aufgrund der veränderten politischen und rechtlichen Rahmenbedingungen im Bereich der Krankenhausfinanzierung und gewinnt zunehmend an Bedeutung.
Im Werk des jüdischen Schriftstellers Albert Cohen (1895-1981) tritt der Liebesbegriff in all seiner schillernden Ambivalenz und Komplexität in einen kontinuierlichen Dialog mit dem ethischen Diskurs des Judentums. Die Studie macht dieses Beziehungsgeflecht zur Grundlage ihrer Reflexion und entwirft vor dem geistigen Hintergrund des Judentums eine Gesamtschau auf die bei Albert Cohen allgegenwärtigen Erscheinungsformen der Liebe. Aus diesem Blickwinkel gedeutet ergeben die im Schreiben des Autors vielschichtig entfalteten zwischenmenschlichen Beziehungsmuster eine ethische Matrix, die den (alt)jüdischen Wissens- und Erfahrungsschatz mit den Herausforderungen der Gegenwart konfrontiert und beides zueinander in Beziehung treten lässt. Jenseits dichotomischer Zuschreibungen stellt die vorliegende Monographie Albert Cohen als einen Literaten vor, dessen Leben und Wirken entlang der Kontaktzonen zwischen Orient und Okzident, zwischen Judentum und Christentum, zwischen Jüdisch-Partikularem und Kulturübergreifend-Universalem ausgerichtet war
Im Fokus der kumulativen Dissertationsschrift stehen Grundschullehrerinnen und Grundschullehrer in ihrer Rolle als Diagnostikerinnen und Diagnostiker. Exemplarisch werden mit der Einschätzung von Aufgabenschwierigkeiten und der Feststellung von Sprachförderbedarf zwei diagnostische Herausforderungen untersucht, die Lehrkräfte an Grundschulen bewältigen müssen.
Die vorliegende Arbeit umfasst drei empirische Teilstudien, die in einem Rahmentext integriert sind, in dem zunächst die theoretischen Hintergründe und die empirische Befundlage erläutert werden. Hierbei wird auf die diagnostische Kompetenz von Lehrkräften bzw. die Genauigkeit von Lehrerurteilen eingegangen. Ferner wird der Einsatz standardisierter Testinstrumente als wichtiger Bestandteil des diagnostischen Aufgabenfeldes von Lehrkräften charakterisiert. Außerdem werden zentrale Aspekte der Sprachdiagnostik in der Grundschule dargestellt.
In Teilstudie 1 (Hoffmann & Böhme, 2014b) wird der Frage nachgegangen, wie akkurat Grundschullehrerinnen und -lehrer die Schwierigkeit von Deutsch- und Mathematikaufgaben einschätzen. Darüber hinaus wird untersucht, welche Faktoren mit der Über- oder Unterschätzung der Schwierigkeit von Aufgaben zusammenhängen.
In Teilstudie 2 (Hoffmann & Böhme, 2017) wird geprüft, inwiefern die Klassifikationsgüte von Entschei¬dungen zum sprachlichen Förderbedarf mit den hierfür genutzten diagnostischen Informationsquellen kovariiert. Der Fokus liegt hierbei vor allem auf der Untersuchung von Effekten des Einsatzes von sprachdiagnostischen Verfahren.
Teilstudie 3 (Hoffmann, Böhme & Stanat, 2017) untersucht schließlich die Frage, welche diagnostischen Verfahren gegenwärtig bundesweit an den Grundschulen zur Feststellung sprachlichen Förderbedarfs genutzt werden und ob diese Verfahren etwa testtheoretischen Gütekriterien genügen.
Die zentralen Ergebnisse der Teilstudien werden im Rahmentext zusammen¬gefasst und studienübergreifend diskutiert. Hierbei wird auch auf methodische Stärken und Schwächen der drei Beiträge sowie auf Implikationen für die zukünftige Forschung und die schulische Praxis hingewiesen.
In der vorliegenden Dissertation werden lebensweltliche Erfahrungszusammenhänge in 128 Aufsätzen ausländischer Studierender, die oft auch als Bildungsausländer bezeichnet werden, und grundsätzliche Prozesse bei der Herausbildung sowie Veränderung kollektiver Zuschreibungen im Rahmen der sozialen Identitätsbildung hermeneutisch untersucht.
Mit Hilfe der nach der empirischen Methode der Grounded Theory kodierten Interpretationsergebnisse werden in der qualitativen Längsschnittstudie Vergleiche angestellt, sowohl fallintern als auch fallübergreifend, um Muster zu entdecken, Typologien zu konstruieren und die jeweiligen (kulturellen) Horizonte in den Aufsätzen zu verallgemeinern.
Neben der Grounded Theory bildet die Theorie der „alltäglichen Lebenswelt“ (Alfred Schütz) eine Basis der Herangehensweise an die Untersuchung der Aufsätze. In diesem Kontext wird ausgehend von der graduellen Unterteilung der Fremdheit in alltägliche, strukturelle und radikale Fremdheit sowie ausgehend von Goffmans Identitätskonzept der Frage nachgegangen, inwieweit sich in den untersuchten Texten die Bildung und Veränderung sozialer Identitäten feststellen lassen. Dabei werden Akkulturationsprozesse und Prozesse der Selbstidentifikation, bezüglich einer angenommenen Gemeinschaft, analysiert, die von kollektiven (kulturellen) Schemata bestimmt sind. In diesem Zusammenhang kann die vorliegende Dissertation zeigen, dass sich bestimmte kulturelle Schemata in der Auseinandersetzung mit dem vormals neuen Leben in Deutschland herausgebildet haben und bestimmte ältere Erfahrungen immer wieder zur Bestätigung dieser Bilder bzw. Erfahrungsschemata herangezogen und wie der Abdruck in Gestein fossiliert werden.
Menschen mit chronisch entzündlichen Darmerkrankungen (CED) leiden unter vielfältigen körperlichen und psychosozialen Einschränkungen. Wie auch bei anderen chronischen Erkrankungen könnten Patientenschulungen ihr psychisches Befinden verbessern (z.B. De Ridder & Schreurs, 2001; Faller, Reusch & Meng, 2011a; Küver, Becker & Ludt, 2008; Schüssler, 1998; Warsi, Wang, LaValley, Avorn & Solomon, 2004). Für CED liegen jedoch nur wenige Schulungsevaluationen vor (z.B. Bregenzer et al., 2005; Mussell, Böcker, Nagel, Olbrich & Singer, 2003; Oxelmark, Magnusson, Löfberg & Hillerås, 2007), deren Aussagekraft i.d.R. durch methodische Mängel eingeschränkt ist. Daher ist die Bedeutung von Schulungsprogrammen für CED-Betroffene weiterhin offen. Überdies gibt es für den deutschen Sprachraum noch keine Schulung, die zu psychischen Verbesserungen führt. Aus diesem Grunde wurde ein 1,5-tägiges Wochenend-Seminar mit medizinischen und psychologischen Inhalten konzeptionalisiert, manualisiert und in der vorliegenden Studie evaluiert.
Zur summativen Evaluation nahmen 181 ambulante CED-Patienten an einer prospektiven, multizentrischen, randomisierten, kontrollierten Studie mit vier Messzeitpunkten teil: vor (T1), zwei Wochen (T2) und drei Monate (T3) nach dem Seminar. Zur 12-Monatskatamnese (T4EG) wurde die Stabilität der Effekte in der Experimentalgruppe (EG; n = 86) überprüft. Die Wartekontrollgruppe (n = 95) erhielt zunächst die Standardbehandlung, also keine Patientenschulung, und konnte an dieser nach der dritten Datenerhebung ebenfalls teilnehmen. Kovarianzanalysen (ANCOVAs) mit Kontrolle für die jeweilige Ausgangslage wurden durchgeführt. Weitere Analysen legten eine Adjustierung für die Krankheitsaktivität zu T1 nahe, weshalb diese als zusätzliche Kovariate in die ANCOVAs aufgenommen wurde. Krankheitsbezogene Ängste und Sorgen (PS-CEDE Gesamtwert zu T3; Krebs, Kachel & Faller, 1998) fungierten als primärer Zielparameter. Zu den sekundären Zielkriterien gehörten Progredienzangst und Angstbewältigung (PA-F-KF und PA-F; Mehnert, Herschbach, Berg, Henrich & Koch, 2006 bzw. Dankert et al., 2003; Herschbach et al., 2005) sowie die Gesundheitskompetenzen Positive Grundhaltung, Aktive Lebensgestaltung und Erwerb von Fertigkeiten und Handlungsstrategien (heiQ; Osborne, Elsworth & Whitfield, 2007; Schuler et al., 2013). Weitere sekundäre Zielparameter waren gesundheitsbezogene Lebensqualität (SF-12; Bullinger & Kirchberger, 1998), Symptome einer Angststörung oder Depression (PHQ-4; Kroenke, Spitzer, Williams & Löwe, 2009; Löwe et al., 2010), Wissen, der Umgang mit der CED bzw. von ihr ausgelösten negativen Gefühlen sowie die Zufriedenheit der Teilnehmenden mit dem Seminar. Von Interesse war außerdem, ob Geschlecht, Alter, Art, Dauer oder Aktivität der Erkrankung vor der Schulung einen Einfluss auf die genannten Variablen hatten und ob für sie differentielle Wirksamkeitseffekte bestanden. Darüber hinaus wurden krankheitsbezogene Ängste und Sorgen von ungeschulten Studienteilnehmern untersucht.
Zwei Wochen und drei Monate nach der Schulung ließen sich im Vergleich von Experimental- und Kontrollgruppe signifikante, mittlere bis große Effekte auf krankheitsbezogene Ängste und Sorgen, Progredienzangst und deren Bewältigung sowie eine Positive Grundhaltung der CED gegenüber erzielen (stets p ≤ .001). Außerdem kam es zu beiden Messzeitpunkten zu signifikanten, großen Interventionseffekten auf den Erwerb von Fertigkeiten und Handlungsstrategien im Umgang mit der Erkrankung, das Wissen um sie und den Umgang mit ihr (stets p < .001) sowie zu moderaten Effekten auf den Umgang mit CED-bedingten negativen Gefühlen (T2: p = .001; T3: p = .008). Alle beschriebenen Effekte waren auch nach zwölf Monaten noch stabil. Für Aktive Lebensgestaltung, gesundheitsbezogene Lebensqualität sowie Angst- und Depressionssymptomatik konnten keine Schulungseffekte nachgewiesen werden.
Die zusätzliche Kontrolle für die Krankheitsaktivität zu T1 führte zu keinen wesentlichen Änderungen in den Ergebnissen. Auch bei den Subgruppenanalysen hatte die Krankheitsaktivität keinen relevanten Einfluss auf die Wirksamkeit der Schulung. Gleiches gilt für Geschlecht, Alter, Art und Dauer der CED. Mit Ausnahme der Krankheitsaktivität deuteten dies bereits die zur Baseline durchgeführten t-Tests an, bei denen insgesamt nur sehr wenige signifikante, höchstens moderate Unterschiede zwischen den einzelnen Subgruppen auftraten.
Sowohl bei der formativen als auch der summativen Evaluation zeigte sich überdies die hohe Zufriedenheit der Teilnehmenden mit der Schulung. Neben der Akzeptanz konnte außerdem die Durchführbarkeit bestätigt werden. Die Auswertung der Ängste und Sorgen der Studienteilnehmenden lieferte zudem Hinweise für die Entwicklung und Modifikation von Interventionen für CED-Betroffene.
Es lässt sich festhalten, dass für die hier evaluierte Schulung für CED-Patienten ein Wirksamkeitsnachweis erbracht werden konnte und sie sehr positiv von den Teilnehmenden bewertet wurde. Sie führte sowohl kurz-, mittel- als auch langfristig zu substantiellen Verbesserungen in psychischer Belastung, Selbstmanagement-Fähigkeiten, der Bewältigung der Erkrankung sowie im Wissen und war gleichermaßen wirksam bei Betroffenen, die sich in Geschlecht, Alter, Art, Dauer oder Aktivität ihrer CED unterschieden.
Clusterstrukturen werden vielfach diskutiert. Vom Allheilmittel bis hin zum chaotischen Konzept sind viele Ideen und Meinungen vertreten. Dabei ist es schon schwierig, eine einheitliche Clusterdefinition zu finden. Dennoch existieren in der Realität sehr viele Cluster in Deutschland, aber auch in Europa, mit unterschiedlichsten Schwerpunkten. Insbesondere in Deutschland werden bis heute stetig neue Clusterstrukturen etabliert – sowohl auf Bundes- als auch auf Landesebene. Im Fokus stehen meist Synergien im Bereich der Beschaffung oder auch der Innovationsentwicklung. Dabei ist einer der drängendsten Fragen der unternehmerischen Entwicklung, die richtigen Talente zu finden. In Zeiten eines stetig wachsenden Fachkräftemangels, haben Cluster noch keinen Lösungsansatz gefunden, diesem Bedürfnis Ihrer Akteure Rechnung zu tragen. Am Beispiel des Clusters Energietechnik der Länder Berlin und Brandenburg versucht der Autor, genau solche Lösungsansätze zu analysieren, aufzuzeigen und die Rolle des Clusters und seines Clustermanagements in diesem Prozess zu definieren. Ist ein Clustermanagement in der Pflicht, Ideen im Cluster zu platzieren, oder eher in der Rolle eines Katalysators von Ideen? Wie müsste ein Clustermanagement zusammengesetzt sein, um solch eine Herausforderung mit größtmöglicher Akzeptanz anzugehen und wie kann opportunistisches Verhalten der Clusterakteure dabei verhindert werden? Die zentrale Frage, welche sich letztendlich daraus ableitet, ist, ob ein Clustermanagement in diesem Prozess eine Brückenfunktion im Sinne eines Boundary Spanners einnehmen und damit einen wirklichen Mehrwert im Sinne einer clusterbezogenen Fachkräftesicherung bieten kann.
Systematische Abweichungen zwischen gehandelten Marktpreisen und fundamentalen Werten von Wertpapieren zeigen bis heute, dass Kapitalmärkte weder vollkommen noch effizient sind. Sowohl die Finanzmarktforschung als auch die Investmentpraxis befassen sich weiter mit der Suche nach geeigneten Kapitalmarktmodellen. Neue Investmentstrategien auf Basis verbesserter Erklärungen von Wertpapierrenditen etablieren sich zunehmend am Markt. Das traditionelle Konzept der Kapitalmarktanomalie Value versus Growth beweist auch in erweiterter Form seine Gültigkeit und zeigt, dass Wertpapierrenditen und fundamentale Charakteristika von Unternehmen zusammenhängen. Solche Erkenntnisse greift der Autor auf und analysiert die traditionellen Assetklassen Aktien und Anleihen.
Für die empirische Untersuchung werden Wertpapierportfolios ermittelt, die von fundamentalen Bewertungskennzahlen abhängen, d. h. eine Kombination von Kapitalmarkt- und Jahresabschlussdaten bilden. Erkenntnisgewinne ergeben sich im Rahmen dieser Forschungsarbeit vor allem zu den Ursachen von Fehlbewertungen bei Wertpapieren im Sinne der Kapitalmarktanomalie Value versus Growth. Zudem wird gezeigt, dass die fundamentale Analyse als Bewertungsmethode sowohl für Aktien als auch für Anleihen relevant ist. Überrenditen können somit systematisch ausgenutzt werden. Dies erscheint für die Praxis besonders wichtig, da Fonds sowohl in Aktien wie auch in Anleihen investieren. Da der Anleihemarkt deutlich größer als der Aktienmarkt ist, bieten Anleihen beträchtliche Diversifikationspotentiale für Investoren, sofern eine Ausnutzung von Kapitalmarktanomalien angestrebt wird.
In dieser Untersuchung zur deutsch-jüdischen Bildungsgeschichte wird die Wirkungsgeschichte der Hascharath Zwi Schule in Halberstadt rekonstruiert, der einzigen privaten jüdischen Elementarschule der ehemaligen Provinz Sachsen. Das wegweisende Schulkonzept ihres Gründers Hirsch Isaac Borchert bestand in der Vermittlung religiöser und weltlicher Bildung und spiegelt im Zeitalter von Emanzipation und Akkulturation das Streben nach Bildung und gesellschaftlichem Aufstieg wider. Berücksichtigung fanden hierbei sowohl innerjüdische und lokalspezifische Entwicklungen wie auch die im 19. Jahrhundert eingeleiteten staatlichen Maßnahmen im jüdischen Bildungswesen. Die Studie verdeutlicht darüber hinaus das kooperative Verhältnis zwischen staatlicher Schulbehörde und privater Bildungseinrichtung und zeigt das besondere Engagement und die Entschlossenheit der Akteure, religiöse Traditionen mit den Modernisierungsbestrebungen im jüdischen Schul- und Erziehungswesen in Einklang zu bringen.
Hintergrund: Etablierte Protein- und Nukleinsäure-basierte Methoden für den spezifischen Pathogennachweis sind nur unter standardisierten Laborbedingungen von geschultem Personal durchführbar und daher mit einem hohen Zeit- und Kostenaufwand verbunden. In der Nukleinsäure-basierten Diagnostik kann durch die Einführung der isothermalen Amplifikation eine schnelle und kostengünstige Alternative zur Polymerase-Kettenreaktion (PCR) verwendet werden. Die Loop-mediated isothermal amplification (LAMP) bietet aufgrund der hohen Amplifikationseffizienz vielfältige Detektionsmöglichkeiten, die sowohl für Schnelltest- als auch für Monitoring-Anwendungen geeignet sind.
Ein wesentliches Ziel dieser Arbeit war die Verbesserung der Anwendbarkeit der LAMP und die Entwicklung einer neuen Methode für den einfachen, schnellen und günstigen Nachweis von Pathogenen mittels alternativer DNA- oder Pyrophosphat-abhängiger Detektionsverfahren. Hier wurden zunächst direkte und indirekte Detektionsmethoden untersucht und darauf aufbauend ein Verfahren entwickelt, mit dem neue Metallionen-abhängige Fluoreszenzfarbstoffe für die selektive Detektion von Pyrophosphat in der LAMP und anderen enzymatischen Reaktionen identifiziert werden können. Als Alternative für die DNA-basierte Detektion in der digitalen LAMP sollten die zuvor etablierten Farbstoffe für den Pyrophosphatnachweis in einer Emulsion getestet werden. Abschließend wurde ein neuer Reaktionsmechanismus für die effiziente Generierung hochmolekularer DNA unter isothermalen Bedingungen als Alternative zur LAMP entwickelt.
Ergebnisse: Für den Nachweis RNA- und DNA-basierter Phythopathogene konnte die Echtzeit- und Endpunktdetektion mit verschiedenen Farbstoffen in einem geschlossenen System etabliert werden. Hier wurde Berberin als DNA-interkalierender Fluoreszenzfarbstoff mit vergleichbarer Sensitivität zu SYBR Green und EvaGreen erfolgreich in der LAMP mit Echtzeitdetektion eingesetzt. Ein Vorteil von Berberin gegenüber den anderen Farbstoffen ist die Toleranz der DNA-Polymerase auch bei hohen Farbstoffkonzentrationen. Berberin kann daher auch in der geschlossenen LAMP-Reaktion ohne zusätzliche Anpassung der Reaktionsbedingungen für die Endpunktdetektion verwendet werden. Darüber hinaus konnte Hydroxynaphtholblau (HNB), das für den kolorimetrischen Endpunktnachweis bekannt ist, erstmals auch für die fluorimetrische Detektion der LAMP in Echtzeit eingesetzt werden. Zusätzlich konnten in der Arbeit weitere Metallionen-abhängige Farbstoffe zur indirekten Detektion der LAMP über das Pyrophosphat identifiziert werden. Dafür wurde eine iterative Methode entwickelt, mit der potenzielle Farbstoffe hinsichtlich ihrer Enzymkompatibilität und ihrer spektralen Eigenschaften bei An- oder Abwesenheit von Manganionen selektiert werden können. Mithilfe eines kombinatorischen Screenings im Mikrotiterplattenformat konnte die komplexe Konzentrationsabhängigkeit zwischen den einzelnen Komponenten für einen fluorimetrischen Verdrängungsnachweis untersucht werden. Durch die Visualisierung des Signal-Rausch-Verhältnis’ als Intensitätsmatrix (heatmap) konnten zunächst Alizarinrot S und Tetrazyklin unter simulierten Reaktionsbedingungen selektiert werden. In der anschließenden enzymatischen LAMP-Reaktion konnte insbesondere Alizarinrot S als günstiger, nicht-toxischer und robuster Fluoreszenzfarbstoff identifiziert werden und zeigte eine Pyrophosphat-abhängige Zunahme der Fluoreszenzintensität. Die zuvor etablierten Farbstoffe (HNB, Calcein und Alizarinrot S) konnten anschließend erfolgreich für die indirekte, fluorimetrische Detektion von Pyrophosphat in einer LAMP-optimierten Emulsion eingesetzt werden. Die Stabilität und Homogenität der generierten Emulsion wurde durch den Zusatz des Emulgators Poloxamer 188 verbessert. Durch die fluoreszenzmikroskopische Analyse der Emulsion war eine eindeutige Diskriminierung der positiven und negativen Tröpfchen vor allem bei Einsatz von Calcein und Alizarinrot S möglich. Aufgrund des komplexen Primer-Designs und der hohen Wahrscheinlichkeit unspezifischer Amplifikation in der LAMP wurde eine neue Bst DNA-Polymerase-abhängige isothermale Amplifikationsreaktion entwickelt. Durch die Integration einer spezifischen Linkerstruktur (abasische Stelle oder Hexaethylenglykol) zwischen zwei Primersequenzen konnte ein bifunktioneller Primer die effiziente Regenerierung der Primerbindungsstellen gewährleisten. Der neue Primer induziert nach der spezifischen Hybridisierung auf dem Templat die Rückfaltung zu einer Haarnadelstruktur und blockiert gleichzeitig die Polymeraseaktivität am Gegenstrang, wodurch eine autozyklische Amplifikation trotz konstanter Reaktionstemperatur möglich ist. Die Effizienz der „Hinge-initiated Primer dependent Amplification“ (HIP) konnte abschließend durch die Verkürzung der Distanz zwischen einem modifizierten Hinge-Primer und einem PCR-ähnlichen Primer verbessert werden.
Schlussfolgerung: Die LAMP hat sich aufgrund der hohen Robustheit und Effizienz zu einer leistungsfähigen Alternative für die klassische PCR in der molekularbiologischen Diagnostik entwickelt. Unterschiedliche Detektionsverfahren verbessern die Leistungsfähigkeit der qualitativen und quantitativen LAMP für die Feldanwendungen und für die Diagnostik, da die neuen DNA- und Pyrophosphat-abhängigen Nachweismethoden in einer geschlossenen Reaktion eingesetzt werden können und so eine einfache Pathogendiagnostik ermöglichen. Die gezeigten Methoden können darüber hinaus zu einer Kostensenkung und Zeitersparnis gegenüber den herkömmlichen Methoden beitragen. Ein attraktives Ziel stellt die Weiterentwicklung der HIP für den Pathogennachweis als Alternative zur LAMP dar. Hierbei können die neuen LAMP-Detektionsverfahren ebenfalls Anwendung finden. Die Verwendung von Bst DNA-Polymerase-abhängigen Reaktionen ermöglicht darüber hinaus die Integration einer robusten isothermalen Amplifikation in mikrofluidische Systeme. Durch die Kombination der Probenvorbereitung, Amplifikation und Detektion sind zukünftige Anwendungen mit kurzer Analysezeit und geringem apparativen Aufwand insbesondere in der Pathogendiagnostik möglich.
Die vorliegende Arbeit trägt den Titel: Intellektuellen-Rolle in Günter Grass Werken : „Die Plebejer proben den Aufstand“(1966), „Örtlich betäubt“(1969), „Aus dem Tagebuch einer Schnecke“(1972), und „Ein weites Feld“(1995).
Das erste Kapitel befasst sich insgesamt mit drei Haupttiteln
II. Der Intellektuelle
II.1 Das allgemeine Umfeld
In diesem Teil der Dissertation sollen Aussagen getroffen werden, die auf folgende und weitere Fragen eine Antwort geben: Was ist ein Intellektueller? Wie kam der Begriff zustande? Gibt es Unterschiede zwischen den Intellektuellen und wie werden sie eingeteilt?
II.2 Das deutsche Umfeld
Die Behandlung des Nazisystems und dessen historische Hintergründe vermittelt bedeutsame Lehren. Aber wozu braucht man diese Lehren? Gibt es Spuren von Nationalsozialismus heutzutage? Wo waren die Intellektuellen bei der Bildung des Nationalsozialismus? Ist der Nationalsozialismus erst mit Hitler aufgetaucht? Wenn zuvor, in welcher Phase hat er sich im Bewusstsein der Deutschen verankert? Ob theoretische bzw. geistige Tendenzen dazu beigetragen haben?
II.3 Das Bild von Grass als Intellektueller
II.3.1 Positionierung
Eine Hauptthese für Grass intellektuelle Positionierung wird durch die Verbindung zwischen Grass’ Grundkonzeption der gesellschaftspolitischen Intellektualität und der Gruppe 47 ermittelt. Dann bezweckt die Behandlung von Grass Bild nach Erscheinen seines autobiographischen Werks: „Beim Häuten der Zwiebel“ (2006), dass seine Intellektualität nicht nur aus dem positiven, sondern auch aus dem negativen Profil beleuchtet wird.
Aus der Darstellung zahlreicher Ansichten von Günter Grass werden fünf thematische Kernpunkte als Konzepte behandelt. Unter jedem Konzept sollen spezifische Vorschläge zur gesellschaftlichen Positionierung aufgezeigt werden.
II.3.2 Grass’ politische Merkmale
Es handelt sich hier um die intellektuellen Charaktereigenschaften. Dadurch kommen manche Fragen zu Wort: Hat Günter Grass gesellschaftliche Aktivitäten? Hat er die Voraussetzungen dafür? Wie ist der Umfang seiner Aktivitäten? Hat die Gruppe 47 Einfluss auf Grass intellektuelle Merkmale? Steht bei Grass eine Methode der gesellschaftspolitischen Arbeit zur Verfügung?
Dann wird die politische Sprache von Günter Grass und ihre Wirkung auf den Rezipienten untersucht. Danach wird nach Grass’ Auffassung von der Revision gefragt und ob sie mit seiner Auffassung der Aufklärung zusammenpasst. Darauf wird die Funktion der Revision in seinem literarischen Werk und in seiner gesellschaftspolitischen Aktivität gezeigt.
Abschließend werden die Argumente seiner Intellektualität untersucht:
Wie hat Grass’ gesellschaftspolitische Aktivität den konkreten politischen Rahmen berücksichtigt? Um diese Frage zu beantworten, muss der Zusammenhang zwischen Politik und Moral verdeutlicht werden.
III. Historischer Kontext und Inhalt der Werke
Unter diesem Titel wird erstens der historische Zusammenhang der untersuchten Werke skizziert. Dann werden meistens durch Argumente aus jedem Werk selbst nicht nur der Kern des Werkes und sein Handlungsverlauf, sondern auch die dafür angewandte Methode dargestellt.
IV. Bezug der untersuchten Werke zu konkreten gesellschaftspolitischen Fragen
IV.1 Interaktionswege des Intellektuellen mit der Gesellschaft, vor allem beim Wandel gesellschaftspolitischer Prozesse
Zentralkonzepte des ersten Werkes sind: Vermittlung, Engagement, Solidarität und die Aktualität als Maßstab. Diese werden durch zwei Konzepte des zweiten Werkes: Appell an Generationen beim Wechsel und Zusammenhaltsprinzip an Revision gebunden, sowie durch die Behandlung vom Prozess der Meinungsbildung im vierten Werk ausgearbeitet.
IV.2 Thematische Aspekte zur Vermeidung eines Naziregimes
Aus den thematischen Perspektiven der drei letzten Werke geht eine bunte Sammlung intellektueller Konzepte aus, die zur Bekämpfung von Nazivorsprünge verwendet werden können.
V. Pädagogische Strategien der untersuchten Werke
Die pädagogischen Aspekte der untersuchten Werke sollen intellektuelle Werte vermitteln, die einen bedeutenden Beitrag zur Lösung gesellschaftspolitischer Probleme und Konflikte leisten.
VI. Entwicklung der literarischen und gesellschaftspolitischen Vision
Hier wird die Entwicklungslinie der gesellschaftspolitischen Vision in den untersuchten Werken verfolgt.
VII. Zur Rezeption der vier Werke
Durch die Auseinandersetzung mit der negativen Kritik wird angestrebt, ihre Subjektivität darzulegen, damit der gesellschaftspolitische Wert der vier Werke enthüllt wird.