Refine
Year of publication
- 2017 (117) (remove)
Document Type
- Doctoral Thesis (117) (remove)
Language
- German (117) (remove)
Keywords
- Calciumphosphat (2)
- Depression (2)
- FRET (2)
- Gold (2)
- Lebensqualität (2)
- Politik (2)
- depression (2)
- gold (2)
- quality of life (2)
- 2P-FRET (1)
Institute
- Öffentliches Recht (17)
- Institut für Chemie (15)
- Wirtschaftswissenschaften (10)
- Historisches Institut (8)
- Institut für Ernährungswissenschaft (8)
- Sozialwissenschaften (7)
- Department Erziehungswissenschaft (6)
- Bürgerliches Recht (5)
- Department Psychologie (5)
- Institut für Germanistik (5)
- Institut für Künste und Medien (4)
- Institut für Physik und Astronomie (4)
- Department Sport- und Gesundheitswissenschaften (3)
- Institut für Biochemie und Biologie (3)
- Institut für Informatik und Computational Science (3)
- Strafrecht (3)
- Institut für Jüdische Studien und Religionswissenschaft (2)
- Institut für Philosophie (2)
- Institut für Romanistik (2)
- Department Grundschulpädagogik (1)
- Department Linguistik (1)
- Department Musik und Kunst (1)
- Extern (1)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (1)
- Institut für Geowissenschaften (1)
- Institut für Umweltwissenschaften und Geographie (1)
Heutzutage ist es üblich, die Ehre als einen obsoleten Begriff zu betrachten, der nur einem archaischen Denkmodell zuzuordnen ist und keine handlungsprägende Größe in der Gegenwartsgesellschaft darstellt. Die Ehrenmorde, die heute noch in unterschiedlichen Teilen der Welt verübt werden, scheinen diese Behauptung zu bestätigen. In diesem Buch wird jedoch die These vertreten, dass nicht der Ehrbegriff, sondern seine Deutungen archaischer Natur und daher in Frage zu stellen sind. Die Ehre ist die Bezeichnung des sozialen Werts eines Menschen, den er infolge seiner achtenswerten Handlungen erlangt. Also kann sie kein Motiv für moralisch fragwürdige Praktiken bilden. Vor diesem Hintergrund werden die Formen und die Voraussetzungen der Ehre dargestellt, die sowohl in Bezug auf unsere Zeit anpassungsfähig als auch ethisch tragbar sind.
Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt.
In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt.
Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt.
Bewaffnete Intellektuelle
(2017)
Auf der Suche nach der geheimen Herrschaftslehre der Nazis begibt sich Michael Zantke in eine tiefe und umfassende Auseinandersetzung mit den geistigen Wurzeln des Nationalsozialismus. Er beleuchtet die Diskussionen in Deutschland um Machiavelli und überprüft die Texte auf ihren Bezug zur Gegenwart des Nationalsozialismus. Dabei gelingt es ihm, die politische Rolle der Intellektuellen im „Dritten Reich“ und die Unterschiede zwischen Nationalsozialismus, Faschismus und Konservativer Revolution herauszuarbeiten. Diese Nuancen sind nicht nur historisch bedeutungsvoll, sie sind auch für die heutige Diskussion über Rechtsnationalismus, Rechtsradikalismus und die Neue Rechte von Nutzen.
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Durch Art. 20 Abs. 1 des Grundgesetzes wird die Bundesrepublik Deutschland als demokratischer und sozialer Bundesstaat insbesondere dem Föderalismus verpflichtet. Er ist neben der Demokratie eine der Säulen unseres Staatswesens. Im Bewusstsein dieser Grundentscheidung unserer Verfassung fällt mit Art. 115f Abs. 1 Nr. 2 GG eine Vorschrift auf, die hiervon im Verteidigungsfall eine weitreichende Ausnahme zu ermöglichen scheint. Die Bundesregierung soll dann unter bestimmten Voraussetzungen außer der Bundesverwaltung auch den Landesregierungen und Landesbehörden Weisungen erteilen können. Es stellt sich in Anbetracht eines solchen Ausnahmerechts die Frage, wie sich dieses Weisungsrecht der Bundesregierung in unser Rechtssystem einfügt.
Der Autor nähert sich dieser Frage zunächst über die geschichtlichen Hintergründe, die zur Einfügung der Vorschrift geführt haben. Er geht detailliert auf die Voraussetzungen dieses Weisungsrechts der Bundesregierung ein und stellt es in seinen systematischen Zusammenhang. Neben einer Darstellung des Weisungsbegriffs als Möglichkeit der Einflussnahme auf die Bundesverwaltung und die Länder, werden auch die damit umschriebenen Weisungsadressaten näher untersucht. Auch den Fragen, welchen Gegenstand Weisungen nach dieser Vorschrift haben können, wie sie zu erlassen sind und welche Wirkungen sich aus ihnen ergeben, wird in der Untersuchung detailreich nachgegangen. Daneben behandelt der Autor die sich daraus ergebenden Anschlussfragen, welcher Rechtsschutz gegen derartige Weisungen besteht, wer damit verbundene Aufgaben zu finanzieren hat und wer für eventuelle Schäden zu haften hat. Das Werk schließt mit einer Erörterung, ob es sich bei dieser Vorschrift um eine verfassungswidrige Verfassungsnorm handelt, und einem Blick auf internationale Vorschriften, die Einfluss auf das Weisungsrecht nehmen könnten.
Bei der Autorin Judith Hermann handelt es sich um eine sehr resonanzträchtige Autorin, der in der Vergangenheit eine phänomenale Aufmerksamkeit zuteil wurde und die es schaffte, sich erfolgreich auf dem Marktplatz Literatur zu positionieren und zur Bestsellerautorin zu avancieren.
Die vorliegende Studie verfolgt das Ziel, der Marke Judith Hermann auf die Spur zu kommen und die höchst unterschiedlichen Facetten der Erfolgsgeschichte zu rekonstruieren.
Juliane Witzke analysiert dazu detailliert die peri- und epitextuellen Praktiken der Jahre 1998 bis 2014 und bezieht sich dabei auf die Paratexte der ersten vier Werke der Autorin. Ergänzt werden diese Begleittexte durch eine Analyse der Bild- und Tondokumente sowie der Buchpreisverleihungen. Die grundlegende Frage lautet: Wie ist der Wandel der Inszenierungspraktiken gestaltet? Des Weiteren gibt die Arbeit – anhand von 100 Büchern der Gegenwart – Aufschluss über Strategien der Lektürelenkung der letzten 16 Jahre.
Arbeit vor Rente
(2017)
Schon vor der Staatsgründung legte die SED die Grundlagen für ein neues System der sozialen Sicherung und wandelte den traditionellen Wohlfahrtsstaat in einen "workfarestate" um. Carolin Wiethoff richtet den Blick auf die Auswirkungen dieser Politik auf die Menschen, die aufgrund einer Erwerbsminderung nicht mehr oder nur noch eingeschränkt arbeiten konnten. Ihre Studie untersucht über einen Zeitraum von 40 Jahren hinweg die soziale Sicherung bei Invalidität und sozialpolitische Initiativen zur beruflichen Rehabilitation. Die beiden Bereiche waren eng miteinander verbunden, weil es den politisch Verantwortlichen in der DDR stets darum ging, möglichst viele Bürger in den Arbeitsprozess zu integrieren und eine dauerhafte Invalidisierung zu vermeiden. Im Mittelpunkt der Untersuchung steht neben dem stellenweise konfliktreichen Zusammenspiel der einzelnen Akteure im Partei-und Staatsapparat die betriebliche Praxis, denn in der DDR war Sozialpolitik besonders stark auf die Betriebe zentriert. Anhand des Eisenhüttenkombinates Ost, einem Schwerpunktbetrieb der DDR, werden die Organisation des betrieblichen Gesundheits- und Sozialwesens und Schwierigkeiten bei der Umsetzung staatlicher Vorgaben deutlich.
Gegenstand der Dissertation ist die Präsentation von Kleidermode in ihr gewidmeten Sonderausstellungen, die in zunehmender Zahl seit den 1990er Jahren in musealen und musemsähnlichen Kontexten veranstaltet werden. Es geht darum, wie Modekörper und vestimentäre Artefakte in diesen Ausstellungen gezeigt werden und welche ästhetischen Erfahrungen sich für die RezipientInnen aus der jeweiligen Konstellation von vestimentärem Objekt und Inszenierungsmittel ergeben können. Das Augenmerk liegt auf der Spannung zwischen dem visuellen Imperativ musealer Zeigepraktiken und den multisensorischen Qualitäten der Kleidermode, v. a. jener hautsinnlichen, die sich aus dem unmittelbaren Kontakt zwischen Körper und Kleid ergeben.
Die zentrale These ist, dass sich das Hautsinnliche der Kleidermode trotz des Berührungsverbots in vielen Ausstellungsinszenierungen zeigen kann. D. h., dass – entgegen häufig wiederholter Behauptungen – ‚der Körper‘, das Tragen und die Bewegung nicht per se oder komplett aus den Kleidern gewichen sind, werden diese musealisiert und ausgestellt. Es findet eine Verschiebung des Körperlichen und Hautsinnlichen, wie das Anfassen, Tragen und Bewegen, in visuelle Darstellungsformen statt. Hautsinnliche Qualitäten der vestimentären Exponate können, auch in Abhängigkeit von den jeweils verwendeten Präsentationsmitteln, von den BesucherInnen in unterschiedlichen Abstufungen sehend oder buchstäblich gespürt werden.
An konkreten Beispielen wird zum einen das Verhältnis von ausgestelltem Kleid und Präsentationsmittel(n) in den Displays untersucht. Dabei stehen folgende Mittel im Fokus, mit deren Hilfe die vestimentären Exponate zur Schau gestellt werden: Vitrinen, Podeste, Ersatzkörper wie Mannequins, optische Hilfsmittel wie Lupen, Bildmedien oder (bewegte) Installationen. Zum anderen wird analysiert, welche Wirkungen die Arrangements jeweils erzielen oder verhindern können, und zwar in Hinblick auf mögliche ästhetische Erfahrungen, die taktilen, haptischen und kinästhetischen Qualitäten der Exponate als BesucherIn sehend oder buchstäblich zu fühlen oder zu spüren. Ob als Identifikation, Projektion, Haptic Vision – es handelt sich um ästhetische Erfahrungen, die sich aus den modischen Kompetenzen der BetrachterInnen speisen und bei denen sich Visuelles und Hautsinnliches oft überlagern.
In der Untersuchung wird eine vernachlässigte, wenn nicht gar unerwünschte Rezeptionsweise diskutiert, die von den AkteurInnen der spezifischen Debatte bspw. als konsumptives Sehen abgewertet wird. Die von mir vorgeschlagene, stärker differenzierende Perspektive ist zugleich eine Kritik an dem bisherigen Diskurs und seinem eng gefassten, teilweise elitären Verständnis von Museum, Bildung und Wissen, mit dem sich AkteurInnen und Institutionen abgrenzen. Der Spezialdiskurs über musealisierte und exponierte Kleidermode steht zudem exemplarisch für die Diskussion, was das Museum, verstanden als Institution, sein kann und soll(te) und ob (und wenn ja, wie) es sich überhaupt noch von anderen Orten und Räumen klar abgrenzen lässt.
Die Hebung stiller Lasten ist eine Problematik, die in den letzten Jahren in Rechtsprechung und Literatur kontrovers diskutiert wurde und aufgrund Grund befürchteter Steuerausfälle in Milliardenhöhe zu den Neuregelungen in § 4f und § 5 Abs. 7 EStG geführt hat.
Der Autor nimmt diese Neuregelungen zum Anlass, die steuerbilanziellen Grundlagen herauszuarbeiten, die alte Rechtslage zu analysieren und die neue Rechtslage im Lichte dieser Erkenntnisse zu bewerten.
Im Zusammenhang mit der Darstellung der steuerbilanziellen Grundlagen geht der Autor auf die verfassungsrechtliche Rechtfertigung stiller Lasten ein und setzt sich mit der Rechtsprechung des Bundesverfassungsgerichts auseinander.
Darauf folgt eine Bewertung der Rechtsprechung des Bundesfinanzhofs, der die Realisation der stillen Lasten mit dem Realisationsprinzip und dem Prinzip der Erfolgsneutralität von Anschaffungsvorgängen begründet hat. Daraufhin untersucht der Autor, inwieweit diese Grundsätze auf die Neuregelung übertragen werden können.
Unter hybriden Finanzinstrumenten werden ganz allgemein Mischformen zwischen Eigen- und Fremdkapital verstanden. Aufgrund ihrer flexiblen Ausgestaltung stellen hybride Finanzinstrumente eine in vielfacher Hinsicht vorteilhafte Alternative zu klassischen Eigen- und Fremdkapitalinstrumenten dar. Bei der konkreten Ausgestaltung der Finanzinstrumente in der Praxis gilt es insbesondere zu berücksichtigen, wie sich diese beim Emittenten und beim Inhaber handels- und steuerbilanziell abbilden lassen. Auf Ebene des Emittenten stellt sich die Frage, ob das zugeführte Kapital als Eigen- oder Fremdkapital zu bilanzieren ist. Auf Ebene des Inhabers stellt sich die Frage, ob strukturierte hybride Finanzinstrumente einheitlich oder getrennt in ihre einzelnen Komponenten zu bilanzieren sind. Dabei gilt es zu beachten, dass sowohl die Frage der Abgrenzung zwischen Eigen- und Fremdkapital als auch die Frage der Abgrenzung der Beurteilungseinheit zum Teil wesentliche Rechtsfolgedivergenzen nach sich ziehen können. Es ist daher ein wesentliches Anliegen dieser Untersuchung sowohl für das Handels- als auch für das Steuerbilanzrecht klare und eindeutige Abgrenzungskriterien zu formulieren. Die Studie richtet sich einerseits an Wissenschaftler, die eine fundierte und kritische Auseinandersetzung mit der Thematik erwarten und andererseits an Praktiker, die auf der Suche nach konkreten Lösungen und Gestaltungsmöglichkeiten im Zusammenhang mit hybriden Finanzinstrumenten sind.
Die vorliegende Dissertation thematisiert den Unterschied zwischen Einstellungen, die auf der persönlichen Ebene im Rahmen demoskopischer Interviews erfragt und zu einem „Meinungsbild“ aggregiert werden und der öffentlichen Meinung, dem wahrgenommenen Meinungsklima zu einer Thematik. Die Daten der langjährigen Bevölkerungsbefragung des Zentrums für Militärgeschichte und Sozialwissenschaften der Bundeswehr (ZMSBw) weisen, hinsichtlich der persönlichen Einstellung der Bundesbürger zu den Streitkräften, seit vielen Jahren beständig darauf hin, dass die Mehrheit der Bürgerinnen und Bürger der Bundeswehr positiv gegenübersteht. Gleichzeitig existiert in Teilen der Bevölkerung die Meinungsklima-wahrnehmung, dass die Bundeswehr auf gesamtgesellschaftlicher Ebene eher kritisch gesehen wird. Der im Rahmen dieser Arbeit erstmalig entwickelte medienzentrierte Untersuchungsansatz des Phänomens, welches als Ausprägung pluralistischer Ignoranz theoretisch hergeleitet wurde, fokussiert, neben dem Einfluss eines doppelten Meinungsklimas, auf die Wirkung medienspezifischer Wahrnehmungsphänomene (Hostile-Media-Phänomen und Third-Person-Wahrnehmung), um die beobachtete Diskrepanz zwischen persönlicher Einstellung und Meinungsklimawahrnehmung zum Thema Ansehen der Bundeswehr zu erklären.
Im Rahmen einer quantitativen Bevölkerungsbefragung wurden Indikatoren entwickelt, um die aufgestellten Hypothesen einer empirischen Überprüfung zu unterziehen. Die deskriptiven Analysen zur Richtung und Ausprägung der Diskrepanzwahrnehmung ergaben, dass sich die Bürgerinnen und Bürger eher in der Weise irren, dass sie das Meinungsklima zum Thema Ansehen der Bundeswehr negativer einschätzen als das Ansehen, welches sie den Streitkräften persönlich entgegenbringen (negative Diskrepanz-wahrnehmung). Außerdem zeigte sich, dass die Diskrepanzwahrnehmung zurückging, wenn dem Untersuchungsthema ein emotionales Potenzial zugesprochen wurde. In einem solchen Fall tendieren die Probanden dazu, die eigene Meinung dicht an der antizipierten Mehrheitsmeinung zu positionieren, um sich keinem Rechtfertigungsdruck oder schlimmstenfalls sozialer Isolation auszusetzen.
Die Ergebnisse der Analysen der vier zentralen erklärenden Variablen zeigten auf, dass sich alle formulierten Hypothesen zur Richtung der Diskrepanzwahrnehmung bestätigten. Eine vermehrte Mediennutzung, eine negative Wahrnehmung der generellen bundeswehrbezogenen Medienberichterstattung, eine persönlich positive Einstellung zur Bundeswehr und die Wahrnehmung, dass die Medien auf Dritte stärker wirken als auf die eigene Person trugen jeweils zu einem Anstieg der negativen Diskrepanzwahrnehmung zum Thema Ansehen der Bundeswehr bei. Personen, die diese Merkmale aufwiesen, schätzten das Meinungsklima zum Thema Ansehen der Bundeswehr negativer ein als das Ansehen, welches sie den Streitkräften persönlich entgegenbrachten. Die Analyse der Stärke der jeweiligen Effekte verdeutlichte jedoch, dass die verwendeten Erklärungsansätze jeweils nur einen kleinen oder mittleren Beitrag zur Erklärung der Diskrepanzwahrnehmung leisten konnten.
Dieses Ergebnis kann dadurch begründet werden, dass sich das Untersuchungsthema, neben der Ermangelung einer kontinuierlichen Medienberichterstattung und eines breiten öffentlichen Diskurses zum Thema Ansehen der Bundeswehr sowie fehlender persönlicher Bezüge zu den Streitkräften, in der Analyse insbesondere als zu wenig konfliktträchtig erwies. Ob die Bundeswehr gesellschaftliches Ansehen erfährt, besitzt für den Großteil der Bevölkerung nur eine geringe persönliche Relevanz. Aus diesen Gründen scheint dieses Thema nicht dazu geeignet zu sein, um die in dieser Dissertation als Erklärungsfaktoren herangezogenen medienspezifischen Wahrnehmungsphänomene auszubilden. Dieses Ergebnis impliziert, dass die Diskrepanz zwischen persönlicher Einstellung und Meinungs-klimawahrnehmung zum Thema Ansehen der Bundeswehr von einer Reihe weiterer Faktoren beeinflusst wird, die es im Rahmen zukünftiger Forschungsarbeiten aufzuspüren und zu untersuchen gilt.
Das Ziel der Arbeit ist die Entwicklung eines heuristischen Bezugsrahmens zur Erklärung der Komplexität im Kontext von Industrie 4.0 und der demografischen Entwicklung aus strukturationstheoretischer Sicht. Dabei sind in Bezug auf die zukünftig zu erwartenden kognitiven Anforderungen an die Beschäftigten die Fragen essentiell, vor welchen Herausforderungen Unternehmen bezüglich der Einstellung und dem Verhalten sowie dem Erfahrungswissen der Beschäftigten stehen und welche Lösungsansätze sich im Umgang mit den Herausforderungen in der Praxis bisher als hilfreich erweisen.
In Kapitel 1 erfolgt zunächst die Beschreibung der Ausgangslage. Es werden die Begriffe Industrie 4.0 und demografische Entwicklung inhaltlich diskutiert und in einen theoretischen Zusammenhang gebracht.
In Kapitel 2 erfolgt die theoretische Fundierung der Arbeit. Dabei wird eine strukturationstheoretische Sicht auf Unternehmen als soziotechnische Systeme eingenommen. Durch diese „nicht deterministische“ Sichtweise wird ein prozessualer Blick auf den Wandlungsprozess in Unternehmen geschaffen, der es möglich macht, die Beschäftigten als aktiv handelnde Akteure im Sinne von „organisieren“ zur Erklärung möglicher Zusammenhänge zwischen Industrie 4.0 und der demografischen Entwicklung mit einzubeziehen. Der soziotechnische Systemansatz und die Strukturationstheorie bilden in diesem Sinne den „Kern“ des zu entwickelnden heuristischen Bezugsrahmens.
Die inhaltliche Gestaltung des theoriebasierten heuristischen Bezugsrahmens erfolgt in Kapitel 3 und Kapitel 4.
Kapitel 3 beschreibt ausgewählte Aspekte zukünftiger Anforderungen an die Arbeit, die durch eine systematische Aufbereitung des derzeitigen Forschungsstandes zu Industrie 4.0 ermittelt wurden. Sie bilden die „Gestaltungsgrenzen“, innerhalb derer sich je nach betrieblicher Situation unterschiedliche neue oder geänderte Anforderungen an die Beschäftigten bei der Gestaltung von Industrie 4.0 ableiten lassen.
In Kapitel 4 werden ausgewählte Aspekte menschlichen Handelns am Beispiel älterer Beschäftigter in Form zweier Schwerpunkte beschrieben.
Der erste Schwerpunkt betrifft mögliche Einflussfaktoren auf die Einstellung und das Verhalten älterer Beschäftigter im Wandlungsprozess aufgrund eines vorherrschenden Altersbildes im Unternehmen. Grundlage hierzu bildete die Stigmatisierungstheorie als interaktionistischer Ansatz der Sozialtheorie.
Mit dem zweiten Schwerpunkt, den ausgewählten handlungstheoretischen Aspekten der Alternsforschung aus der Entwicklungspsychologie, wird eine Lebensspannenperspektive eingenommen. Inhaltlich werden die komplexitätsinduzierten Faktoren, die sich aus handlungstheoretischer Perspektive mit der Adaptation von älteren Beschäftigten an veränderte äußere und persönliche Lebensbedingungen beschäftigen, systematisiert.
Anschließend wird auf Grundlage der bisherigen theoretischen Vorüberlegungen ein erster theoriebasierter Bezugsrahmen abgeleitet.
Kapitel 5 und Kapitel 6 beschreiben den empirischen Teil, die Durchführung teilstrukturierter Interviews, der Arbeit. Ziel der empirischen Untersuchung war es, neben der theoretischen Fundierung den theoriebasierten heuristischen Bezugsrahmen um Praxiserfahrungen zu konkretisieren und gegebenenfalls zu ergänzen. Hierzu wurde auf Grundlage des theoriebasierten heuristischen Bezugsrahmens mittels teilstrukturierter Interviews das Erfahrungswissen von 23 Experten in persönlichen Gesprächen abgefragt.
Nachdem in Kapitel 5 die Vorgehensweise der empirischen Untersuchung beschrieben wird, erfolgt in Kapitel 6 die Beschreibung der Ergebnisse aus der qualitativen Befragung. Hierzu werden aus den persönlichen Gesprächen zentrale Einflussfaktoren bei der Gestaltung und Umsetzung von Industrie 4.0 im Kontext mit der demografischen Entwicklung analysiert und in die übergeordneten Kategorien Handlungskompetenzen, Einstellung/ Verhalten sowie Erfahrungswissen geclustert.
Anschließend wird der theoriebasierte heuristische Bezugsrahmen durch die übergeordneten Kategorien und Faktoren aus den Expertengesprächen konkretisiert und ergänzt.
In Kapitel 7 werden auf Grundlage des heuristischen Bezugsrahmens sowie der Empfehlungen aus den Experteninterviews beispielhaft Implikationen für die Praxis abgeleitet. Es werden Interventionsmöglichkeiten zur Unterstützung einer positiven Veränderungsbereitschaft und einem positiven Veränderungsverhalten für den Strukturwandel aufgezeigt. Hierzu gehören die Anpassung des Führungsverhaltens im Wandlungsprozess, der Umgang mit der Paradoxie von Stabilität und Flexibilität, der Umgang mit Altersstereotypen in Unternehmen, die Unterstützung von Strategien zu Selektion, Optimierung und Kompensation sowie Maßnahmen zur Ausrichtung von Aktivitäten an die Potenzialrisiken der Beschäftigten.
Eine Zusammenfassung, ein Resümee und ein Ausblick erfolgen abschließend in Kapitel 8.
"Wortabruf im Handumdrehen"?
(2017)
Entgegen der dominierenden Rezeption ist Jean Améry, Überlebender der Konzentrationslager Auschwitz und Bergen-Belsen, ein marxistischer Denker. In Kontrastierung mit ausgewählten Werken der zeitgenössischen Intellektuellen Jürgen Habermas, Theodor W. Adorno und Jean-Paul Sartre zeichnet Sabine Volk die Konturen nach, die Amérys marxistisch-humanistisch geprägten Begriff des Engagements deutlich hervortreten lassen und eine Revision des bisherigen Améry-Bildes nahelegen. Das Buch zeigt, dass Wissenschaft nach Auschwitz auf mindestens zwei Ebenen produktiv sein muss, wenn sie den Ansprüchen an eine Kritische Denkpraxis gerecht werden will: als von der individuellen Erfahrung ausgehender, dialogisch konzipierter, ideologiekritischer Entwurf einer Gesellschaftstheorie, der ständiger Aktualisierung bedarf, und als Versuch, durch die Kritik der Vergangenheit hindurch eine Utopie zu realisieren, die den fühlenden, reflektierenden und gestaltenden Menschen auf die Bühne der Weltgeschichte ruft.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
Der Erfolg eines Finanzinstituts im Kreditgeschäft mit Firmenkunden wird maßgeblich von der Fähigkeit bestimmt, die künftige Bonität von Unternehmen einzuschätzen. Durch eine zunehmend starke Regulierung und einen sich verschärfenden Wettbewerb gewinnen prognosestarke Kreditrisikomodelle weiter an Bedeutung. Sowohl in der theoretischen Forschung als auch in der Regulierungspraxis, wie in der Kreditwirtschaft insgesamt, dominieren jedoch seit Jahrzehnten Modelle und Verfahren der Ausfallprognose, welche eine starke Vergangenheitsorientierung implizieren. Dies betrifft im Grunde die gesamte betriebswirtschaftliche Krisenforschung.
Dieses Spannungsfeld – einhergehend mit einer mangelnden theoretischen Fundierung bisheriger Ansätze zur Bonitätsprognose – greift der Autor auf, indem er die Logik des Unternehmensbewertungsmodells von Schwartz/Moon (2001) auf die Ausfallprognose von Unternehmen überträgt. Erweiterungen dieses Modells, etwa um die Berücksichtigung qualitativer Einflussfaktoren wie der Managementqualität, resultieren im Potsdamer Modell zur simulativen Prognose der Ausfallwahrscheinlichkeit von Unternehmen. Ausgangspunkt des Verfahrens bildet die Monte Carlo Simulation, wodurch – im Gegensatz zu traditionellen Verfahren der Insolvenzprognose – ökonomisch fundierte Ursache-Wirkungszusammenhänge einen Ausfall definieren. Die empirische Untersuchung verdeutlicht das große Potenzial des Modells und damit einhergehend die Notwendigkeit eines Paradigmenwechsels bei der Prognose der Ausfallwahrscheinlichkeit von Unternehmen.
Der Gefangene als Phantom
(2017)
Der »hooded man« aus dem Abu-Ghraib-Folterskandal war 2004 medial omnipräsent und erhitzt seitdem Diskussionen über die Repräsentation von Gefangenschaft als Form der Selbst- und Fremdbeschreibung. Stephanie Siewert zeigt, dass die Inszenierungen von Gemeinschaft in Darstellungen der Gefangenschaft nicht neu sind. Ihre transnational angelegte Studie zeichnet nach, wie Literatur und Medien seit Mitte des 19. Jahrhunderts an der Herstellung und Dekonstruktion einer Phantom-Position beteiligt sind, die sich in der Moderne über verschiedene Strukturen der Bannung manifestiert. Dabei wird das Wechselspiel ethnischer, sozialer und geschlechterspezifischer Zuschreibungen in den ästhetischen Anordnungen und Verfahren des Verschwindenmachens betont.
Das vorliegende Werk widmet sich den an deutschen Hochschulen oftmals wiederkehrenden Fragestellungen zur Ausgestaltung und Anwendung von Prüfungsverfahren. Unter Bezugnahme auf die bestehenden verfassungs- und verwaltungsrechtlichen Anforderungen, die für Hochschulabschlussprüfungen als auch für studienbegleitende Leistungskontrollen gelten, wird darin umfassend erörtert,
- für welche Prüfungsleistungen eine Begründungspflicht besteht,
- in welchen Fällen eine Kollegialprüfung durchzuführen ist,
- welche Prüflinge für die Herstellung einheitlicher Prüfungsbedingungen miteinander vergleichbar sind,
- welche verwaltungsrechtliche Qualität Hochschulprüfungsleistungen anhaftet,
- ob generell ein Anspruch auf ein verwaltungsinternes Kontrollverfahren gegen die gerügte Bewertung einer Hochschulprüfungsleistungen besteht und wenn ja in welchem Umfang, bzw. mit welchen rechtlichen Instrumentarien auf eine Bewertungsrüge zu reagieren ist
- und ob das Rechtsinstitut der reformatio in peius bei der Bescheidung einer Bewertungsrüge Anwendung finden darf.
Im Anschluss daran wird unter Berücksichtigung der aktuellen Rechtslage dargestellt, inwieweit der parlamentarische Gesetzgeber dem verfassungsrechtlich gebotenen Kodifikationsbedarf im Hochschulprüfungsrecht entspricht und an welchen Stellen Nachbesserungsbedarf besteht.
Mit Inkrafttreten der NFA 2008 hat die Schweiz ihren Finanzausgleich umfassend reformiert und erstmals auch einen direkt umverteilenden Ausgleich zwischen den Kantonen geschaffen. Diese Reform blieb auf deutscher Seite weitgehend unbeachtet. Der Autor vergleicht zunächst die finanzverfassungsrechtlichen Grundstrukturen in beiden Ländern und erläutert das bestehende und das ab 2020 geltende deutsche System. Dem folgt eine umfassende Analyse des sekundären Finanzausgleichs in der Schweiz, sog. Finanzausgleich im engeren Sinn, mit ausführlicher Darstellung des Ressourcenausgleichs sowie des geografisch-topografischen und soziodemografischen Lastenausgleichs. Im Anschluss werden nach Problemschwerpunkten gegliedert Reformoptionen für Deutschland aufgezeigt. Der Autor plädiert insbesondere für einen nach Schweizer Vorbild gestalteten indikatorbasierten Lastenausgleich, um dem verfassungsrechtlichen Benennungs- und Begründungsgebot bei Sonderlasten besser gerecht zu werden.
Das Thema der vorliegenden Arbeit ist die semantische Suche im Kontext heutiger Informationsmanagementsysteme. Zu diesen Systemen zählen Intranets, Web 3.0-Anwendungen sowie viele Webportale, die Informationen in heterogenen Formaten und Strukturen beinhalten. Auf diesen befinden sich einerseits Daten in strukturierter Form und andererseits Dokumente, die inhaltlich mit diesen Daten in Beziehung stehen. Diese Dokumente sind jedoch in der Regel nur teilweise strukturiert oder vollständig unstrukturiert. So beschreiben beispielsweise Reiseportale durch strukturierte Daten den Zeitraum, das Reiseziel, den Preis einer Reise und geben in unstrukturierter Form weitere Informationen, wie Beschreibungen zum Hotel, Zielort, Ausflugsziele an.
Der Fokus heutiger semantischer Suchmaschinen liegt auf dem Finden von Wissen entweder in strukturierter Form, auch Faktensuche genannt, oder in semi- bzw. unstrukturierter Form, was üblicherweise als semantische Dokumentensuche bezeichnet wird. Einige wenige Suchmaschinen versuchen die Lücke zwischen diesen beiden Ansätzen zu schließen. Diese durchsuchen zwar gleichzeitig strukturierte sowie unstrukturierte Daten, werten diese jedoch entweder weitgehend voneinander unabhängig aus oder schränken die Suchmöglichkeiten stark ein, indem sie beispielsweise nur bestimmte Fragemuster unterstützen. Hierdurch werden die im System verfügbaren Informationen nicht ausgeschöpft und gleichzeitig unterbunden, dass Zusammenhänge zwischen einzelnen Inhalten der jeweiligen Informationssysteme und sich ergänzende Informationen den Benutzer erreichen.
Um diese Lücke zu schließen, wurde in der vorliegenden Arbeit ein neuer hybrider semantischer Suchansatz entwickelt und untersucht, der strukturierte und semi- bzw. unstrukturierte Inhalte während des gesamten Suchprozesses kombiniert. Durch diesen Ansatz werden nicht nur sowohl Fakten als auch Dokumente gefunden, es werden auch Zusammenhänge, die zwischen den unterschiedlich strukturierten Daten bestehen, in jeder Phase der Suche genutzt und fließen in die Suchergebnisse mit ein. Liegt die Antwort zu einer Suchanfrage nicht vollständig strukturiert, in Form von Fakten, oder unstrukturiert, in Form von Dokumenten vor, so liefert dieser Ansatz eine Kombination der beiden. Die Berücksichtigung von unterschiedlich Inhalten während des gesamten Suchprozesses stellt jedoch besondere Herausforderungen an die Suchmaschine. Diese muss in der Lage sein, Fakten und Dokumente in Abhängigkeit voneinander zu durchsuchen, sie zu kombinieren sowie die unterschiedlich strukturierten Ergebnisse in eine geeignete Rangordnung zu bringen. Weiterhin darf die Komplexität der Daten nicht an die Endnutzer weitergereicht werden. Die Darstellung der Inhalte muss vielmehr sowohl bei der Anfragestellung als auch bei der Darbietung der Ergebnisse verständlich und leicht interpretierbar sein.
Die zentrale Fragestellung der Arbeit ist, ob ein hybrider Ansatz auf einer vorgegebenen Datenbasis die Suchanfragen besser beantworten kann als die semantische Dokumentensuche und die Faktensuche für sich genommen, bzw. als eine Suche die diese Ansätze im Rahmen des Suchprozesses nicht kombiniert. Die durchgeführten Evaluierungen aus System- und aus Benutzersicht zeigen, dass die im Rahmen der Arbeit entwickelte hybride semantische Suchlösung durch die Kombination von strukturierten und unstrukturierten Inhalten im Suchprozess bessere Antworten liefert als die oben genannten Verfahren und somit Vorteile gegenüber bisherigen Ansätzen bietet. Eine Befragung von Benutzern macht deutlich, dass die hybride semantische Suche als verständlich empfunden und für heterogen strukturierte Datenmengen bevorzugt wird.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von anisotropen Goldnanopartikeln in einer geeigneten Polyelektrolyt-modifizierten Templatphase. Der Mittelpunkt bildet dabei die Auswahl einer geeigneten Templatphase, zur Synthese von einheitlichen und reproduzierbaren anisotropen Goldnanopartikeln mit den daraus resultierenden besonderen Eigenschaften. Bei der Synthese der anisotropen Goldnanopartikeln lag der Fokus in der Verwendung von Vesikeln als Templatphase, wobei hier der Einfluss unterschiedlicher strukturbildender Polymere (stark alternierende Maleamid-Copolymere PalH, PalPh, PalPhCarb und PalPhBisCarb mit verschiedener Konformation) und Tenside (SDS, AOT – anionische Tenside) bei verschiedenen Synthese- und Abtrennungsbedingungen untersucht werden sollte.
Im ersten Teil der Arbeit konnte gezeigt werden, dass PalPhBisCarb bei einem pH-Wert von 9 die Bedingungen eines Röhrenbildners für eine morphologische Transformation von einer vesikulären Phase in eine röhrenförmige Netzwerkstruktur erfüllt und somit als Templatphase zur formgesteuerten Bildung von Nanopartikeln genutzt werden kann.
Im zweiten Teil der Arbeit wurde dargelegt, dass die Templatphase PalPhBisCarb (pH-Wert von 9, Konzentration von 0,01 wt.%) mit AOT als Tensid und PL90G als Phospholipid (im Verhältnis 1:1) die effektivste Wahl einer Templatphase für die Bildung von anisotropen Strukturen in einem einstufigen Prozess darstellt. Bei einer konstanten Synthesetemperatur von 45 °C wurden die besten Ergebnisse bei einer Goldchloridkonzentration von 2 mM, einem Gold-Templat-Verhältnis von 3:1 und einer Synthesezeit von 30 Minuten erzielt. Ausbeute an anisotropen Strukturen lag bei 52 % (Anteil an dreieckigen Nanoplättchen von 19 %). Durch Erhöhung der Synthesetemperatur konnte die Ausbeute auf 56 % (29 %) erhöht werden.
Im dritten Teil konnte durch zeitabhängige Untersuchungen gezeigt werden, dass bei Vorhandensein von PalPhBisCarb die Bildung der energetisch nicht bevorzugten Plättchen-Strukturen bei Raumtemperatur initiiert wird und bei 45 °C ein Optimum annimmt.
Kintetische Untersuchungen haben gezeigt, dass die Bildung dreieckiger Nanoplättchen bei schrittweiser Zugabe der Goldchlorid-Präkursorlösung zur PalPhBisCarb enthaltenden Templatphase durch die Dosierrate der vesikulären Templatphase gesteuert werden kann. In umgekehrter Weise findet bei Zugabe der Templatphase zur Goldchlorid-Präkursorlösung bei 45 °C ein ähnlicher, kinetisch gesteuerter Prozess der Bildung von Nanodreiecken statt mit einer maximalen Ausbeute dreieckigen Nanoplättchen von 29 %.
Im letzten Kapitel erfolgten erste Versuche zur Abtrennung dreieckiger Nanoplättchen von den übrigen Geometrien der gemischten Nanopartikellösung mittels tensidinduzierter Verarmungsfällung. Bei Verwendung von AOT mit einer Konzentration von 0,015 M wurde eine Ausbeute an Nanoplättchen von 99 %, wovon 72 % dreieckiger Geometrien hatten, erreicht.
Mietpreisbremse
(2017)
Der Zugang der Bevölkerung zu Wohnraum und die Bezahlbarkeit des Wohnens sind seit jeher Kernthemen der Sozialen Marktwirtschaft. Für den Gesetzgeber ist es nicht zuletzt angesichts von rund 23 Millionen Mieterhaushalten in Deutschland politisch attraktiv, mittels gesetzlicher Beschränkungen Einfluss auf die Mietpreisentwicklung zu nehmen. Das Werk zeigt die ökonomischen Auswirkungen derartiger Mietpreisbegrenzungen auf, untersucht ihre regulatorischen und privatrechtlichen Implikationen und arbeitet die Grenzen für eine verfassungskonforme Ausgestaltung heraus. Dabei nimmt der Autor auch zur Diskussion um die sog. Materialisierung des Privatrechts Stellung und entwickelt einen eigenen Ansatz, wie sich unter privatrechtlichen Gesichtspunkten Einschränkungen der Vertragsfreiheit rechtfertigen lassen. Die Arbeit schließt mit einer umfassenden Bewertung der im Jahr 2015 eingeführten Mietpreisbremse, in deren Rahmen insbesondere die Verfassungsmäßigkeit der Mietpreisbremse untersucht wird.
Ausgezeichnet mit dem Fakultätspreis der Universität Potsdam.
Nicht nur die Griechenland-Krise und die drohende Zahlungsunfähigkeit des Landes beschäftigen die Öffentlichkeit seit Jahren. Das Thema Staateninsolvenz ist dauerhaft präsent, zuletzt geriet Venezuela 2017 in massive finanzielle Schwierigkeiten. Gleichwohl fehlt es weiterhin an einem geordneten Insolvenzverfahren für Staaten.
Neben der einheimischen Bevölkerung sind häufig auch ausländische Anleihegläubiger von einer Staateninsolvenz beeinflusst und müssen im Rahmen der Umschuldung auf einen erheblichen Teil der Anleihesumme verzichten. Einzig Großgläubiger (häufig Hedge Fonds) können oftmals die volle Rückzahlung der Anleihesumme erwirken, indem sie andernfalls die Umschuldung durch komplizierte Vollstreckungshandlungen stören. Diese Möglichkeit hat einen Sekundärmarkt entstehen lassen, auf dem Hedge Fonds mit diesem Geschäftsmodell Anleihen von Kleinanlegern aufkaufen.
Diesen Gegebenheiten widmet sich der Verfasser. Es wird erörtert, inwieweit eine Anwendung der Grundsätze des Wegfalls der Geschäftsgrundlage Abhilfe dafür schaffen könnte, dass es an einem geordneten Insolvenzverfahren für Staaten fehlt. Dabei werden die Voraussetzungen des § 313 BGB einer kritischen Würdigung unterzogen.
Darüber hinaus erscheint vor dem Hintergrund der Euro-Krise und den Verwerfungen in der EU im Jahr 2016 (sog. Brexit) ein Auseinanderbrechen der Euro-Zone wieder wahrscheinlicher. Ein wirtschaftlich angeschlagener Mitgliedsstaat könnte den gemeinsamen Währungsraum verlassen, um durch Abwertungsmaßnahmen seine heimische Wirtschaft zu stützen. Auch erlebt der Protektionismus durch den 2016 gewählten US-Präsidenten Donald Trump eine Renaissance. Daher könnten sich nunmehr auch insolvente Staaten zu protektionistischen Maßnahmen verleitet sehen, um Arbeitsplätze zu schaffen und heimischen Unternehmen einen Vorteil zu verschaffen. Diese aktuellen und möglichen Entwicklungen und ihre Auswirkungen auf grenzüberschreitende Vertragsverhältnisse werden abschließend behandelt.
Systematische Abweichungen zwischen gehandelten Marktpreisen und fundamentalen Werten von Wertpapieren zeigen bis heute, dass Kapitalmärkte weder vollkommen noch effizient sind. Sowohl die Finanzmarktforschung als auch die Investmentpraxis befassen sich weiter mit der Suche nach geeigneten Kapitalmarktmodellen. Neue Investmentstrategien auf Basis verbesserter Erklärungen von Wertpapierrenditen etablieren sich zunehmend am Markt. Das traditionelle Konzept der Kapitalmarktanomalie Value versus Growth beweist auch in erweiterter Form seine Gültigkeit und zeigt, dass Wertpapierrenditen und fundamentale Charakteristika von Unternehmen zusammenhängen. Solche Erkenntnisse greift der Autor auf und analysiert die traditionellen Assetklassen Aktien und Anleihen.
Für die empirische Untersuchung werden Wertpapierportfolios ermittelt, die von fundamentalen Bewertungskennzahlen abhängen, d. h. eine Kombination von Kapitalmarkt- und Jahresabschlussdaten bilden. Erkenntnisgewinne ergeben sich im Rahmen dieser Forschungsarbeit vor allem zu den Ursachen von Fehlbewertungen bei Wertpapieren im Sinne der Kapitalmarktanomalie Value versus Growth. Zudem wird gezeigt, dass die fundamentale Analyse als Bewertungsmethode sowohl für Aktien als auch für Anleihen relevant ist. Überrenditen können somit systematisch ausgenutzt werden. Dies erscheint für die Praxis besonders wichtig, da Fonds sowohl in Aktien wie auch in Anleihen investieren. Da der Anleihemarkt deutlich größer als der Aktienmarkt ist, bieten Anleihen beträchtliche Diversifikationspotentiale für Investoren, sofern eine Ausnutzung von Kapitalmarktanomalien angestrebt wird.
Für den Industrialisierungsprozess von Entwicklungs- und Schwellenländern haben ausländische Direktinvestitionen (ADI) eine wichtige Funktion. Sie können zum einen zu einer Erhöhung des industriellen Output des Ziellandes führen und zum anderen als Träger von technologischem Wissen fungieren. Neues Wissen kann den Empfängerländern der ADI durch Spillovereffekte und Technologietransfers ausländischer Tochterunternehmen zufließen. Diese Arbeit soll Antworten auf die Fragen geben, durch welche Mechanismen Spillovereffekte und Technologietransfers ausgelöst werden und wie Entwicklungs- und Schwellenländern diesen Wissenszufluss zur Beschleunigung ihres Industrialisierungsprozesses einsetzen können. Hierfür wird ein Konzept zur Förderung von Spillovereffekten entwickelt. Weiterhin wird ein theoretisches Modell entwickelt, in dem der Technologietransfer ausländischer Exportplattformen erstmals in Abhängigkeit des Anteils der Vorprodukte, die im Gastland nachgefragt werden, untersucht. In den Fallstudien Irland und Malaysia werden die Ergebnisse des theoretischen Modells sowie des entwickelten Konzepts illustriert.
Schwankende Ansichten
(2017)
Neu sehen, anders sehen - seit dem 19. Jahrhundert hat sich in der Literatur eine Ästhetik alternativer Sehformen etabliert, die die eigene Wahrnehmung zunehmend infrage stellt und sich in der Figur des Schwankens manifestiert.
Robert Schade eröffnet einen Einblick in die Geschichte dieser alternativen Sehformen, indem er ausgehend von ökonomischen Wahrnehmungstheorien des 19. und 20. Jahrhunderts Fragestellungen aus Psychologie, Philosophie und Ästhetik verfolgt. Er stellt auf diesem Wege erstmals eine Verbindung zwischen der Sehtheorie Hermann von Helmholtz' und der Verfremdungsästhetik Viktor Shklovskijs her. Am Beispiel von vier Werkuntersuchungen (von Gustave Caillebotte, Andrej Belyj, H.G. Wells und Luigi Pirandello) werden die Vernetztheit und das kritische Potenzial der Figur des Schwankens in unterschiedlichen Diskursen illustriert.
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Incredible !ndia – Indienreisende haben viele Eindrücke im Gepäck. Dabei sind Weblogs ein noch relativ junges Tool zur Kommunikation und Aufzeichnung der gemachten Erfahrungen. In ihrer Studie zeichnet Maria Rost aktuelle Perzeptionen und Präsentationen der Destination Indien nach mit dem Ziel, den höchst unterschiedlichen Facetten visueller, akustischer, olfaktorischer, gustatorischer und taktiler Erfahrungen von bloggenden Reisenden auf die Spur zu kommen. Vor diesem Hintergrund werden nicht nur die Handlungspraktiken der Akteure analysiert und Entwicklungsprozesse anhand von Stadtbeschreibungen, Alltagsbeobachtungen, Zeitwahrnehmungen und Selbstbeobachtungen festgehalten, sondern ergänzend zu den Weblog-Einträgen auch gepostete Fotografien herangezogen und leitfadengestützte Interviews geführt.
Nicht jeder kann sich wegen Strafvereitelung durch Nichtanzeige einer Straftat bei der Staatsanwaltschaft strafbar machen. Doch wie ist es, wenn eine Anzeige unterbleibt, nachdem die Stellen zur Bekämpfung von Fehlverhalten im Gesundheitswesen einen Verdacht festgestellt haben?
Die Arbeit gibt, nach eingehenden Untersuchungen, die Antwort. Sie zeigt, wer sich strafbar machen kann, erläutert das Aufgabenfeld der Stellen, die Voraussetzungen der Anzeigepflicht und die einzelnen strafrechtlichen Problempunkte. Zu entscheidenden Streitfragen bezieht die Untersuchung Stellung. Beantwortet werden diverse Fragen, u.a. ob die Vorstandsmitglieder der Kassenärztlichen Vereinigungen, der Orts-, Betriebs-, Innungs- und Ersatzkassen, die Geschäftsführer der Deutschen Rentenversicherung Knappschaft-Bahn-See und der Sozialversicherung für Landwirtschaft, Forsten und Gartenbau sowie die Mitarbeiter der jeweiligen Stellen, Garanten zum Schutz der Strafrechtspflege sind.
Die Rechtsgrundlagen des grenzüberschreitenden Kooperationsrechts zwischen Gebietskörperschaften
(2017)
Durch den Siegeszug der interkommunalen Zusammenarbeit und ihrer rechtlichen Grundlagen in den letzten Jahrzehnten wurde das Kooperationsrecht zwischen Gebietskörperschaften innerhalb von nationalen oder regionalen Rechtsordnungen umfassend erforscht. Die Frage nach der Anwendung dieses Rechts in einem grenzüberschreitenden Zusammenhang fand hingegen kaum Beachtung. Diese Arbeit zielt deshalb auf eine systematische Einordnung der Rechtsquellen der nationalen und europäischen Rechtsordnungen ab, die für die grenzüberschreitende Zusammenarbeit zwischen Gebietskörperschaften Anwendung finden.
In dieser Untersuchung zur deutsch-jüdischen Bildungsgeschichte wird die Wirkungsgeschichte der Hascharath Zwi Schule in Halberstadt rekonstruiert, der einzigen privaten jüdischen Elementarschule der ehemaligen Provinz Sachsen. Das wegweisende Schulkonzept ihres Gründers Hirsch Isaac Borchert bestand in der Vermittlung religiöser und weltlicher Bildung und spiegelt im Zeitalter von Emanzipation und Akkulturation das Streben nach Bildung und gesellschaftlichem Aufstieg wider. Berücksichtigung fanden hierbei sowohl innerjüdische und lokalspezifische Entwicklungen wie auch die im 19. Jahrhundert eingeleiteten staatlichen Maßnahmen im jüdischen Bildungswesen. Die Studie verdeutlicht darüber hinaus das kooperative Verhältnis zwischen staatlicher Schulbehörde und privater Bildungseinrichtung und zeigt das besondere Engagement und die Entschlossenheit der Akteure, religiöse Traditionen mit den Modernisierungsbestrebungen im jüdischen Schul- und Erziehungswesen in Einklang zu bringen.
Analyse der Funktion der dualen Lokalisation der 3-Mercaptopyruvat Sulfurtransferase im Menschen
(2017)
Medizincontrolling
(2017)
Erika Raab beleuchtet in diesem Buch aus verschiedenen Perspektiven dieRahmenbedingungen, die Entstehungsgeschichte, die Arbeitsgrundlagen und die Instrumentedes Medizincontrollings. In der Gesamtschau stellt die Analyse die erste umfassende Auseinandersetzung mit diesem Fachgebiet dar, welches in der Praxis seit der Einführung der Fallpauschalen (DRG) einer wachsenden Nachfrage unterliegt. Diese junge Fachdisziplin entwickelte sich aufgrund der veränderten politischen und rechtlichen Rahmenbedingungen im Bereich der Krankenhausfinanzierung und gewinnt zunehmend an Bedeutung.
1. Einleitung: Gegenstand und Vorgehensweise (Ziel und Anliegen der Arbeit / Forschungsstand / Methode) ― 2. Die Ideologen und die Seconde Classe des Institut national (Etienne Bonnot de Condillac als Referenz der Ideologen / Antoine Laurent de Lavoisier und die Nomenklatur der Chemie (1787) / Die Grup¬pe der Ideologen / Institutionelle Wirkungsmöglichkeiten der Ideologen: Die Classe des Sciences morales et politiques am Institut national / Vorlesungen in der Ecole normale de l’an III ) ― 3. Zum Korpus: Rekonstruktion der Ausschreibung (The¬men¬findung und Ausschreibung / Die erste Bewertung (1797) und die Neuausschreibung / Die zweite Bewertung (1799): Bekanntgabe des Gewinners) ― 4. Das archivalische Korpus (Zur Auffindsituation der Preisbewerbungsschriften / Serie B1 (1797) / Serie B2 (1799)) ― 5. Auswertung des Korpus: Übergreifende Topoi und Argumentationsstrukturen (Semiotisierung und Entsemiotisierung / Der Nutzen der Analyse / Hervorhebung der Schriftsprache gegenüber der Lautsprache / Das Mate¬ria¬lisieren / Die Zeichen der Mathematik als Vorbild) ― 6. Schlussbetrachtungen ― Literatur
Eine mit dem Wort verleiten beschriebene Tathandlung findet sich in 15 verschiedenen Tatbestanden des deutschen Strafrechts. Der Autor untersucht erfolgreich die Moglichkeit, Zweckmaigkeit und Gebotenheit der Bestimmung eines einheitlichen Verleitensbegriffs. Mittels einer systematisch vergleichenden Analyse samtlicher der teils seit mehr als 140 Jahren geltenden Verleitungsdelikte ermittelt er einen einheitlichen Inhalt des Verleitens und seines Wesens. In der Rechtswissenschaft handelt es sich damit um die erste umfassende und verallgemeinernde Abhandlung zum Verleitensbegriff. Abschlieend befasst sich der Autor mit strafrechtsdogmatischen Einzelfragen, die sich aus der Verwendung des Merkmals verleiten ergeben.
Im Sinne des Refinements von Tierversuchen sollen alle Bedingungen während der Zucht, der Haltung und des Transports von zu Versuchszwecken gehaltenen Tieren und alle Methoden während des Versuchs so verbessert werden, dass die verwendeten Tiere ein minimales Maß an potentiellem Distress, Schmerzen oder Leiden erfahren. Zudem soll ihr Wohlbefinden durch die Möglichkeit des Auslebens speziesspezifischer Verhaltensweisen und die Anwendung tierschonender Verfahren maximal gefördert werden. Zur Etablierung von Grundsätzen des Refinements sind grundlegende Kenntnisse über die physiologischen Bedürfnisse und Verhaltensansprüche der jeweiligen Spezies unabdingbar. Die Experimentatoren sollten das Normalverhalten der Tiere kennen, um potentielle Verhaltensabweichungen, wie Stereotypien, zu verstehen und interpretieren zu können. Standardisierte Haltungsbedingungen von zu Versuchszwecken gehaltenen Mäusen weichen in diversen Aspekten von der natürlichen Umgebung ab und erfordern eine gewisse Adaptation. Ist ein Tier über einen längeren Zeitraum unfähig, sich an die gegebenen Umstände anzupassen, können abnormale Verhaltensweisen, wie Stereotypien auftreten. Stereotypien werden definiert als Abweichungen vom Normalverhalten, die repetitiv und ohne Abweichungen im Ablauf ausgeführt werden, scheinbar keiner Funktion dienen und der konkreten Umweltsituation nicht immer entsprechen.
Bisher war unklar, in welchem Ausmaß stereotypes Verhalten den metabolischen Phänotyp eines Individuums beeinflusst. Ziel dieser Arbeit war es daher, das stereotype Verhalten der FVB/NJ-Maus erstmals detailliert zu charakterisieren, systematisch zusammenzutragen, welche metabolischen Konsequenzen dieses Verhalten bedingt und wie sich diese auf das Wohlbefinden der Tiere und die Verwendung stereotyper Tiere in Studien mit tierexperimentellem Schwerpunkt auswirken.
Der Versuch begann mit der Charakterisierung der mütterlichen Fürsorge in der Parentalgeneration. Insgesamt wurden 35 Jungtiere der F1-Generation vom Absatz an, über einen Zeitraum von 11 Wochen einzeln gehalten, kontinuierlich beobachtet, bis zum Versuchsende wöchentlich Kotproben gesammelt und das Körpergewicht bestimmt. Zusätzlich erfolgten begleitende Untersuchungen wie Verhaltenstests und die Erfassung der physischen Aktivität und metabolischer Parameter. Anschließend wurden u.a. die zerebralen Serotonin- und Dopamingehalte, fäkale Glucocorticoidlevels, hepatisches Glykogen und muskuläre Glykogen- und Triglyceridlevels bestimmt.
Nahezu unabhängig von der mütterlichen Herkunft entwickelte sich bei mehr als der Hälfte der 35 Jungtiere in der F1-Generation stereotypes Verhalten. Diese Daten deuten darauf hin, dass es keine Anzeichen für das Erlernen oder eine direkte genetische Transmission stereotypen Verhaltens bei der FVB/NJ-Maus gibt. Über den gesamten Beobachtungszeitraum zeichneten sich die stereotypen FVB/NJ-Mäuse durch ein eingeschränktes Verhaltensrepertoire aus. Zu Gunsten der erhöhten Aktivität und des Ausübens stereotypen Verhaltens lebten sie insgesamt weniger andere Verhaltensweisen (Klettern, Graben, Nagen) aus. Darüber hinaus waren Stereotypien sowohl im 24-Stunden Open Field Test als auch in der Messeinrichtung der indirekten Tierkalorimetrie mit einer erhöhten Aktivität und Motilität assoziiert, während die circadiane Rhythmik nicht divergierte. Diese erhöhte körperliche Betätigung spiegelte sich in den niedrigeren Körpergewichtsentwicklungen der stereotypen Tiere wieder. Außerdem unterschieden sich die Körperfett- und Körpermuskelanteile.
Zusammenfassend lässt sich sagen, dass das Ausüben stereotypen Verhaltens zu Differenzen im metabolischen Phänotyp nicht-stereotyper und stereotyper FVB/NJ-Mäuse führt. Im Sinne der „Guten Wissenschaftlichen Praxis“ sollte das zentrale Ziel jedes Wissenschaftlers sein, aussagekräftige und reproduzierbare Daten hervorzubringen. Jedoch können keine validen Resultate von Tieren erzeugt werden, die in Aspekten variieren, die für den vorgesehenen Zweck der Studie nicht berücksichtigt wurden. Deshalb sollten nicht-stereotype und stereotype Individuen nicht innerhalb einer Versuchsgruppe randomisiert werden. Stereotype Tiere demzufolge von geplanten Studien auszuschließen, würde allerdings dem Gebot des zweiten R’s – der Reduction – widersprechen. Um Refinement zu garantieren, sollte der Fokus auf der maximal erreichbaren Prävention stereotypen Verhaltens liegen. Diverse Studien haben bereits gezeigt, dass die Anreicherung der Haltungsumwelt (environmental enrichment) zu einer Senkung der Prävalenz von Stereotypien bei Mäusen führt, dennoch kommen sie weiterhin vor. Daher sollte environmental enrichment zukünftig weniger ein „Kann“, sondern ein „Muss“ sein – oder vielmehr: der Goldstandard. Zudem würde eine profunde phänotypische Charakterisierung dazu beitragen, Mausstämme zu erkennen, die zu Stereotypien neigen und den für den spezifischen Zweck am besten geeigneten Mausstamm zu identifizieren, bevor ein Experiment geplant wird.