Refine
Year of publication
- 2012 (646) (remove)
Document Type
- Article (296)
- Doctoral Thesis (129)
- Monograph/Edited Volume (98)
- Review (43)
- Postprint (22)
- Part of Periodical (21)
- Other (16)
- Master's Thesis (9)
- Preprint (6)
- Part of a Book (3)
Language
- German (646) (remove)
Keywords
- Nachhaltigkeit (18)
- Politik (18)
- Wirtschaft (18)
- Zukunft (18)
- economy (18)
- future (18)
- politics (18)
- society (18)
- sustainability (18)
- Dysphagie (17)
Institute
- Wirtschaftswissenschaften (61)
- Institut für Romanistik (55)
- Department Erziehungswissenschaft (45)
- Historisches Institut (43)
- WeltTrends e.V. Potsdam (41)
- MenschenRechtsZentrum (34)
- Institut für Jüdische Studien und Religionswissenschaft (32)
- Sozialwissenschaften (32)
- Department Linguistik (29)
- Extern (29)
Diese Arbeit befasst sich mit der Synthese und Charakterisierung von organolöslichen Thiophen und Benzodithiophen basierten Materialien und ihrer Anwendung als aktive lochleitende Halbleiterschichten in Feldeffekttransistoren. Im ersten Teil der Arbeit wird durch eine gezielte Modifikation des Thiophengrundgerüstes eine neue Comonomer-Einheit für die Synthese von Thiophen basierten Copolymeren erfolgreich dargestellt. Die hydrophoben Hexylgruppen in der 3-Position des Thiophens werden teilweise durch hydrophile 3,6-Dioxaheptylgruppen ersetzt. Über die Grignard-Metathese nach McCullough werden statistische Copolymere mit unterschiedlichen molaren Anteilen vom hydrophoben Hexyl- und hydrophilem 3,6-Dioxaheptylgruppen 1:1 (P-1), 1:2 (P-2) und 2:1 (P-3) erfolgreich hergestellt. Auch die Synthese eines definierten Blockcopolymers BP-1 durch sequentielle Addition der Comonomere wird realisiert. Optische und elektrochemische Eigenschaften der neuartigen Copolymere sind vergleichbar mit P3HT. Mit allen Copolymeren wird ein charakteristisches Transistorverhalten in einem Top-Gate/Bottom-Kontakt-Aufbau erhalten. Dabei werden mit P-1 als die aktive Halbleiterschicht im Bauteil, PMMA als Dielektrikum und Silber als Gate-Elektrode Mobilitäten von bis zu 10-2 cm2/Vs erzielt. Als Folge der optimierten Grenzfläche zwischen Dielektrikum und Halbleiter wird eine Verbesserung der Luftstabilität der Transistoren über mehrere Monate festgestellt. Im zweiten Teil der Arbeit werden Benzodithiophen basierte organische Materialien hergestellt. Für die Synthese der neuartigen Benzodithiophen-Derivate wird die Schlüsselverbindung TIPS-BDT in guter Ausbeute dargestellt. Die Difunktionalisierung von TIPS-BDT in den 2,6-Positionen über eine elektrophile Substitution liefert die gewünschten Dibrom- und Distannylmonomere. Zunächst werden über die Stille-Reaktion alternierende Copolymere mit alkylierten Fluoren- und Chinoxalin-Einheiten realisiert. Alle Copolymere zeichnen sich durch eine gute Löslichkeit in gängigen organischen Lösungsmitteln, hohe thermische Stabilität und durch gute Filmbildungseigenschaften aus. Des Weiteren sind alle Copolymere mit HOMO Lagen höher als -6.3 eV, verglichen mit den Thiophen basierten Copolymeren (P-1 bis P-3), sehr oxidationsstabil. Diese Copolymere zeigen amorphes Verhalten in den Halbleiterschichten in OFETs auf und es werden Mobilitäten bis zu 10-4 cm2/Vs erreicht. Eine Abhängigkeit der Bauteil-Leistung von dem Zinngehalt-Rest im Polymer wird nachgewiesen. Ein Zinngehalt von über 0.6 % kann enormen Einfluss auf die Mobilität ausüben, da die funktionellen SnMe3-Gruppen als Fallenzustände wirken können. Alternativ wird das alternierende TIPS-BDT/Fluoren-Copolymer P-5-Stille nach der Suzuki-Methode polymerisiert. Mit P-5-Suzuki als die aktive organische Halbleiterschicht im OFET wird die höchste Mobilität von 10-2 cm2/Vs erzielt. Diese Mobilität ist somit um zwei Größenordnungen höher als bei P-5-Stille, da die Fallenzustände in diesem Fall minimiert werden und folglich der Ladungstransport verbessert wird. Sowohl das Homopolymer P-12 als auch das Copolymer mit dem aromatischen Akzeptor Benzothiadiazol P-9 führen zu schwerlöslichen Polymeren. Aus diesem Grund werden einerseits Terpolymere aus TIPS-BDT/Fluoren/BTD-Einheiten P-10 und P-11 aufgebaut und andererseits wird versucht die TIPS-BDT-Einheit in die Seitenkette des Styrols einzubringen. Mit der Einführung von BTD in die Hauptpolymerkette werden insbesondere die Absorptions- und die elektrochemischen Eigenschaften beeinflusst. Im Vergleich zu dem TIPS-BDT/Fluoren-Copolymer reicht die Absorption bis in den sichtbaren Bereich und die LUMO Lage wird zu niederen Werten verschoben. Eine Verbesserung der Leistung in den Bauteilen wird jedoch nicht festgestellt. Die erfolgreiche erstmalige Synthese von TIPS-BDT als Seitenkettenpolymer an Styrol P-13 führt zu einem löslichen und amorphen Polymer mit vergleichbaren Mobilitäten von Styrol basierten Polymeren (µ = 10-5 cm2/Vs) im OFET. Ein weiteres Ziel dieser Arbeit ist die Synthese von niedermolekularen organolöslichen Benzodithiophen-Derivaten. Über Suzuki- und Stille-Reaktionen ist es erstmals möglich, verschiedenartige Aromaten über eine σ-Bindung an TIPS-BDT in den 2,6-Positionen zu knüpfen. Die UV/VIS-Untersuchungen zeigen, dass die Absorption durch die Verlängerung der π-Konjugationslänge zu höheren Wellenlängen verschoben wird. Darüber hinaus ist es möglich, thermisch vernetzbare Gruppen wie Allyloxy in das Molekülgerüst einzubauen. Das Einführen von F-Atomen in das Molekülgerüst resultiert in einer verstärkten Packungsordnung im Fluorbenzen funktionalisiertem TIPS-BDT (SM-4) im Festkörper mit sehr guten elektronischen Eigenschaften im OFET, wobei Mobilitäten bis zu 0.09 cm2/Vs erreicht werden.
In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein.
Neben der Frage nach der leistungssteigernden Wirkung von sogenannten "Ich-kann"-Checklisten auf die Metakognitionsstrategien der Schülerinnen und Schüler, geht die Arbeit auch den Fragen nach, welche Schülerinnen und Schüler "Ich-kann"-Checklisten nutzen, in welcher Form und unter welchen Kontextmerkmalen sie am wirksamsten sind. Dabei handelt es sich um Listen mit festgelegten, fachlichen und überfachlichen Kompetenzen einer bzw. mehrerer Unterrichtseinheiten, die in Form von „Ich-kann“-Formulierungen für Schüler geschrieben sind und die Aufforderung einer Selbst- und Fremdeinschätzung beinhalten. Blickt man in die Veröffentlichungen der letzten Jahre zu diesem Thema und in die schulische Praxis, so ist eine deutliche Hinwendung zur Entwicklung und Arbeit mit „Ich-kann“-Checklisten und Kompetenzrastern zu erkennen. Umso erstaunlicher ist es, dass diesbezüglich so gut wie keine empirischen Untersuchungen vorliegen (vgl. Bastian & Merziger, 2007; Merziger, 2007). Basierend auf einer quantitativen Erhebung von 197 Gymnasialschülerinnen und -schülern in der 7. Jahrgangsstufe im Fach Deutsch wurde über einen Zeitraum von zwei Jahren diesen übergeordneten Fragen nachgegangen. Die Ergebnisse lassen die Aussagen zu, dass "Ich-kann"-Checklisten insbesondere für Jungen ein wirksames pädagogisches Instrument der Selbstregulation darstellen. So fördert die Arbeit mit "Ich-kann"-Checklisten nicht nur die Steuerung eigener Lernprozesse, sondern auch die Anstrengungsbereitschaft der Schülerinnen und Schüler, mehr für das Fach tun zu wollen. Eine während der Intervention erfolgte Selbsteinschätzung über den Leistungsstand mittels der "Ich-kann"-Checklisten fördert dabei den freiwilligen außerunterrichtlichen Gebrauch.
In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert.
Describing patterns
(2012)
1. What comes to your Mind when you think of 'patterns'? 2. Does your assignment include patterns? 3. Did you decide tu use some of the patterns? 4. If yes, what problem did you explain with the help of patterns? 4. Describe which patterns you used and how you used them 5. Did you explain the concept of a pattern to your pupils? 6. From your point of view – did pattern offer a helpful structure to prepare your lesson? 7. To what extent were patterns useful for the pupils to understand the main topic of the lesson? 8. How would you improve teaching patterns in your assignments? 9. If you didn ’t use any patterns , explain why. 10. What do you think about using the concept of patterns in general? 11. Will you use patterns in other lessons in the future? Describe why or why not. 12. Conclusion
Deepening understanding
(2012)
1. What do we mean, when we say ‘deepening understanding’? 2. Which methods can be used to foster deepening understanding? 3. Examples for deepening understanding based on the assignments 4. Summary of methods and results 5. How did we train deepening under standing in school? 6. What did the pupils learn from it? 7. Our own experiences working on this chapter
Die empirische Arbeit untersucht den interlingualen Transfer von französischen und deutschen Filmtiteln im vergangenen Jahrhundert. Sie basiert auf einem Korpus von 3.200 französischen Originaltiteln und ihren deutschen Neutiteln und schließt eine Forschungslücke der Filmtitelübersetzung für das Sprachenpaar deutsch-französisch. Im theoretischen Teil werden die text- und übersetzungswissenschaftlichen Grundlagen dargelegt. Filmtitel bilden eine eigene Textsorte, die unter Zuhilfenahme der Textualitätskriterien von de Beaugrande/Dressler spezifiziert wird. Anhand ausgewählter Beispiele aus dem Korpus werden maßgebliche Funktionen von Filmtiteln, wie Werbung, Information, Identifikation, Kontakt und Interpretation erörtert. Auf E. Prunčs Translationstypologie basieren jene fünf Strategien, die bei der Übertragung von französischen Filmtiteln in den deutschen Sprach- und Kulturraum zum Einsatz kommen: Identität, Analogie, Variation, Innovation sowie hybride Formen. Ausführlich werden Übersetzungen von Umtitelungen abgegrenzt. Die Auswertung des Korpus ergibt, dass Titelinnovation die am häufigsten angewandte Strategie beim Titeltransfer im gesamten Untersuchungszeitraum darstellt, während Titelidentitäten am seltensten zum Einsatz kommen. Die Betrachtung kürzerer Zeitspannen zeigt gewisse Tendenzen auf, beispielsweise die deutliche Zunahme von Hybridtiteln in jüngster Zeit. Erstmals wird in dieser Arbeit das Phänomen der Mehrfachbetitelungen in verschiedenen deutschsprachigen Ländern aufgegriffen, indem nach Motiven für unterschiedliche Neutitel in Deutschland, der ehemaligen DDR und Österreich gesucht wird. Den Abschluss bildet eine Betrachtung der Filmtitel aus rechtlicher und ökonomischer Perspektive, denn zusammen mit ihren Filmen stellen Titel von hoher Kommerzialität geprägte Texte dar, und wie jedes Wirtschaftsgut erfahren auch sie eine präzise juristische Regulierung.
In older research literature, the prose epics emerging from the court of Elisabeth of Lorraine and Nassau-Saarbrücken have repeatedly been accused of lacking structure and literariness. By contrast, this article shows that narrative principles of seriality generate the complex structure of the voluminous ›Loher und Maller‹: literary strategies of repetition and variation organize the text on different levels. Recurring narrative structures, thematic constellations and motivations as well as lexical stereotypes are part of this comprehensive principle of seriality. Not triviality and insufficiency, but structural and narrative complexity and lexical accumulation of significance characterize ›Loher und Maller‹.
Die Szene des Erzählens
(2012)
Der französische Schriftsteller Céline ist als Person umstritten, und seine literarischen Texte sind schwer auf den Begriff zu bringen. Vor allem an der Schnittstelle von Pamphlet und Roman stellen sich ästhetische Fragen, die von ethischen nicht zu trennen sind.
Antisemitismus und Avantgarde? Was für viele Interpreten nicht zusammengehören darf, scheint in Céline eine groteske Synthese gefunden zu haben. Zeitlebens bedient der Autor die Maske des Monsters, und das nicht nur in seinen Hetzschriften. Das Pamphlet und der Roman liegen dabei auf ein- und derselben Entwicklungslinie: Célines berühmter ›Stil‹ ist nichts anderes als eine ästhetische Strategie, die Selbstinszenierung und Narration auf einen Nenner bringt. Die literaturwissenschaftliche Analyse ist hier mehr als Funktionsbeschreibung. Sie seziert das Monster.
Die Zivilgesellschaft hat dazu beigetragen, dass die Klimakonferenz in
Kopenhagen zu einem Medienereignis wurde. Fernab großer Demonstrationen
haben Nichtregierungsorganisationen (NRO) seit Jahren
einen guten Zugang zu den internationalen Klimaverhandlungen. Am
Beispiel von Chile wird gezeigt, wie Nichtregierungsorganisationen
durch professionellen Lobbyismus ihre Positionen in politische Prozesse
einspeisen. Sie befinden sich in einem Spannungsfeld von Kooperation
und Instrumentalisierung durch politische Entscheidungsträger.
Gescheiterte Klimapolitik?
(2012)
Der Kopenhagener Klimagipfel 2009 ist mit Spannung erwartet worden.
Erreicht wurde lediglich ein Minimalkonsens. Der Autor liefert eine
akteurszentrierte Deutung des Kopenhagener Abkommens und stellt die
Frage nach dem Präzedenzcharakter der Verhandlungen: Handelte es sich
um ein einmaliges Versagen multilateraler Diplomatie oder um einen
Vorgeschmack auf die weltpolitische Routine des 21. Jahrhunderts?
In-Memory Data Management
(2012)
Nach 50 Jahren erfolgreicher Entwicklunghat die Business-IT einen neuenWendepunkt erreicht. Hier zeigen die Autoren erstmalig, wieIn-Memory Computing dieUnternehmensprozesse künftig verändern wird. Bisher wurden Unternehmensdaten aus Performance-Gründen auf verschiedene Datenbanken verteilt: Analytische Datenresidieren in Data Warehouses und werden regelmäßig mithilfe transaktionaler Systeme synchronisiert. Diese Aufspaltung macht flexibles Echtzeit-Reporting aktueller Daten unmöglich. Doch dank leistungsfähigerMulti-Core-CPUs, großer Hauptspeicher, Cloud Computing und immerbesserer mobiler Endgeräte lassen die Unternehmen dieses restriktive Modell zunehmend hinter sich. Die Autoren stellen Techniken vor, die eine analytische und transaktionale Verarbeitung in Echtzeit erlauben und so dem Geschäftsleben neue Wege bahnen.
Bilder machen Geschichte
(2012)
Herzog macht Stadt
(2012)
Üblicherweise vermeiden deutsche Parteien Kampfkandidaturen um den Vorsitz. Dennoch kam es auf dem Mannheimer SPD-Parteitag 1995 zu einer unerwarteten offenen Konkurrenz um das Spitzenamt. Das unbeabsichtigte Scheitern der Inszenierung der „Geschlossenheit“ der Partei führte zum Ausbruch der bis dahin unterdrückten Kämpfe um den Parteivorsitz. Der Mannheimer Parteitag steht exemplarisch für den Zusammenhang zwischen Inszenierung, Disziplin und den informellen Regeln innerparteilicher Machtkonstruktion. Am Beispiel dieses Parteitages zeigt die vorliegende Arbeit, wie umstrittenen Parteivorsitzenden sich gegen Widerstände im Amt behaupten können bzw. woran diese Strategie scheitern kann. Aus figurationstheoretischer Perspektive wird die Inszenierung als Notwendigkeit medienvermittelter Parteienkonkurrenz um Wählerstimmen gefasst. Inszenierung erfordert Selbstdisziplin und das koordinierte Handeln der Parteimitglieder. Innerparteilich wird so wechselseitige Abhängigkeit erzeugt. Diese wird gesteigert durch die Medien-Konzentration auf wenige Spitzenpolitiker. Die Mehrheit der Mandatsträger und Funktionäre ist angewiesen auf das medienwirksame Auftreten der Führung. Für den Medienerfolg braucht die Führung ihrerseits die Unterstützung der Mitglieder. Diese wechselseitige Abhängigkeit erzeugt sowohl typische Relevanzen als auch Möglichkeiten, die jeweils andere Interessengruppe unter Zugzwang zu setzen. Imageprobleme des Vorsitzenden sind als verletzte Erwartungen Anlass für innerparteiliche Machtkämpfe, in denen die Parteiführung insbesondere die Inszenierung der „Geschlossenheit“ nutzen kann, um offene Personaldiskussionen zu verhindern. Da Handlungsoptionen und -grenzen durch das Handeln der Akteure immer wieder neu geschaffen werden, besteht stets das Risiko des Scheiterns innerparteilicher Disziplinierung. Mit dem Nachvollzug von Disziplinierung und den Gründen ihrer Kontingenz versteht sich die vorliegende Arbeit als Beitrag zu einer Theorie informeller Machtregeln in Organisationen mit schwach ausgeprägten Herrschaftsstrukturen. Im ersten Teil der Arbeit wird der Zusammenhang zwischen Inszenierung und Macht durch die Konzepte Theatralität und Figuration entwickelt. Im zweiten Teil werden typische Konstellationen der gegenwärtigen parlamentarischen Demokratie auf typische beziehungsvermittelte Situationsdeutungen, Handlungsmöglichkeiten und -grenzen untersucht. Im dritten Teil wird der kontingente Prozess des innerparteilichen Machtkampfes am Beispiel des Mannheimer Parteitages 1995 nachvollzogen.
Deutschland hat sich innerhalb kurzer Zeit zu einem bedeutenden sicherheitspolitischen Akteur im Weltraum entwickelt. Am 1. Dezember 2010 stellte die Bundesregierung die deutsche Raumfahrtstrategie vor. Immer wieder ist die Rede von der strategischen Bedeutung des Weltraums für die deutsche Sicherheitspolitik. Eine fundierte und überprüfbare Begründung für diese Behauptung fehlt indes. Der Politikwissenschaftler Cornelius Vogt analysiert die strategischen Aspekte deutscher Weltraumsicherheitspolitik. Seine Untersuchung des strategischen Umfeldes, der nationalen Interessen, des sicherheitspolitischen Nutzens des Weltraums und der wichtigsten Anwendungsfelder zeigt, dass der Weltraum zum unverzichtbaren Bestandteil der gesamtstaatlichen Sicherheitsvorsorge avanciert ist.
Die Bittergeschmacksrezeptoren stellen in der Superfamilie der G-Protein-gekoppelten Rezeptoren eine besondere Gruppe dar. Im Menschen können die 25 Rezeptoren eine große Anzahl unterschiedlichster Bittergeschmacksstoffe detektieren. Diese Substanzen können sowohl schädlich, wie etwa Strychnin, als auch der Gesundheit förderliche Arzneistoffe, wie etwa Chloramphenicol sein. Unter den Bittergeschmacksrezeptoren des Menschen gibt es eine Gruppe von drei Rezeptoren, die besonders viele Bitterstoffe detektieren können. Einer von ihnen ist der Rezeptor hTAS2R10. In dieser Arbeit konnte sowohl experimentell als auch durch computergestützte Modellierung gezeigt werden, dass der hTAS2R10 nur eine Bindungstasche besitzt. Das stimmt mit den bisher ausführlich experimentell und in silico untersuchten Rezeptoren hTAS2R1, -R16, -R38 und -R46 überein. Die für die Agonisteninteraktionen nachweislich wichtigen Transmembrandomänen sind in den bisher untersuchten Bittergeschmacksrezeptoren, wie auch im hTAS2R10, die Transmembrandomänen 3, 5, 6 und 7. Die Untersuchungen zeigten, dass die Bindungstasche des hTAS2R10 in der oberen Hälfte des zum extrazellulären Raum gerichteten Bereichs lokalisiert ist. Insbesondere konnte für die untersuchten Agonisten Strychnin, Parthenolid und Denatoniumbenzoat gezeigt werden, dass die Seitenketten der Aminosäuren in Position 3.29 und 5.40 ausgeprägte agonistenselektive Wechselwirkungen eingehen. Weitere Untersuchungen haben ergeben, dass das weitgefächerte Agonistenspektrum des hTAS2R10 zu Lasten der Sensitivität für einzelne Bitterstoffe geht. Der Vergleich wichtiger Positionen im hTAS2R10, hTAS2R46 und mTas2r105 hat deutlich gemacht, dass sich die Bindungsmodi zwischen diesen Rezeptoren unterscheiden. Dies deutet auf eine getrennte evolutionäre Entwicklung der Bindungseigenschaften dieser Rezeptoren hin. Gleichfalls zeigten die Untersuchungen, dass einige Positionen wie z.B. 7.39 die Funktion aller untersuchten Bittergeschmacksrezeptoren prägen, sich jedoch die genaue Bedeutung im jeweiligen Rezeptor unterscheiden kann. Einzelne dieser Positionen konnten auch bei der Agonisteninteraktion des Rhodopsins und des β2-adrenergen Rezeptors beobachtet werden. Die Ergebnisse dieser Arbeit helfen dabei die Wechselwirkungen zwischen Bitterstoffen und den Bittergeschmacksrezeptoren zu verstehen und geben erste Einblicke in die Entwicklung der Rezeptoren in Hinblick auf ihren Funktionsmechanismus. Diese Erkenntnisse können genutzt werden, um Inhibitoren zu entwickeln, die sowohl ein wichtiges Werkzeug in der Rezeptoranalytik wären, als auch dazu genutzt werden könnten, den unerwünschten bitteren Geschmack von Medikamenten oder gesundheitsfördernden sekundären Pflanzenstoffen zu mindern. Damit könnte ein Beitrag zur Gesundheit der Menschen geleistet werden.
In der vorliegenden Arbeit soll der Zusammenhang zwischen Staatsverschuldung und Inflation untersucht werden. Es werden theoretische Übertragungswege von der Staatsverschuldung über die Geldmenge und die langfristigen Zinsen hin zur Inflation gezeigt. Aufbauend auf diesen theoretischen Überlegungen werden die Variablen Staatsverschuldung, Verbraucherpreisindex, Geldmenge M3 und langfristige Zinsen im Rahmen eines Vektor-Fehlerkorrekturmodells untersucht. In der empirischen Analyse werden die Variablen für Deutschland in dem Zeitraum vom 1. Quartal 1991 bis zum 4. Quartal 2010 betrachtet. In ein Vektor-Fehlerkorrekturmodell fließen alle Variablen als potentiell endogen in das Modell ein. Die Ermittlung der Kointegrationsbeziehungen und die Schätzung des Vektor-Fehlerkorrekturmodells erfolgen mithilfe des Johansen-Verfahrens.
Dario Fos "Morte accidentale di un anarchico" und seine Adaptationen in Frankreich und Deutschland
(2012)
Dario Fo (Nobelpreis 1997) ist einer der herausragendsten Erneuerer des italienischen Theaters des 20. Jahrhunderts. Ein Überblick über die wichtigsten Stationen seines künstlerischen Schaffens zeugt zunächst von Fos stetem Bemühen um innovative Ansätze in Bezug auf Theaterkonzeption und –praxis: immer gilt es, sich von den Konventionen des literarischen, bürgerlichen, subventionierten, weitgehend passiv rezipierten Theaters abzugrenzen und das Theater für das Publikum wieder ganzheitlich erfahrbar zu machen. Doch nicht selten geraten er und seine Truppe dabei in Konflikt mit den herrschenden politischen und gesellschaftlichen Umständen. Dies trifft auch auf sein Stück "Morte accidentale di un anarchico" (1970) zu, dessen Analyse im Zentrum dieser Arbeit steht. Ein realhistorischer Fall, der "Fall Pinelli" (bzw. "la strage di Piazza Fontana") 1969, diente Fo als Grundlage seiner sehr zeitnah entstandenen grotesken Farce, die aufgrund ihrer politischen Brisanz für Aufruhr sorgte und die auch im Ausland bis heute immer wieder auf den Spielplänen zu finden ist. Die Arbeit geht daher nicht nur auf die Produktion, Inszenierung und Rezeption des Stücks in Italien ein, sondern nimmt auch die Adaptationen und deren Rezeption in Frankreich und Deutschland in den Blick, wobei die italienspezifische Ausrichtung von Fos Theater (Rekurs auf Traditionen des italienischen Volkstheaters, Verarbeitung (tages)politischen Geschehens etc.) eine besondere Herausforderung für die fremdsprachige Bearbeitung des Stückes und seine Inszenierung darstellt. Neben den produktions- und rezeptionsästhetischen Grundbedingungen des Textes von Dario Fo werden in diesem Zusammenhang auch Spezifika der Bühnenübersetzung beleuchtet und Alternativen hierzu aufgezeigt, die auch bereits von Fos Truppe genutzt werden.
Neben der Frequenz eines cues ist es dessen Zuverlässigkeit, die Kindern hilft, die an sie gerichtete Sprache zu segmentieren, Worteinheiten zu erkennen sowie diese syntaktisch zu kategorisieren. Im Deutschen weist die Subsilbe „Langvokal+Konsonant+/t/“ (z.B. in fehlt, wohnt) zuverlässig auf eine -t-flektierte Verbform hin. Die in kindgerichteter Sprache höher frequente Subsilbe „Kurzvokal+Konsonant+/t/“ (z.B. in Feld, Hemd, fällt, rund) gibt hingegen keinen derartig eindeutigen Hinweis. Es wurde der Frage nachgegangen, inwiefern diese unterschiedlichen Zuverlässigkeiten und Frequenzen der Subsilben auf die Nomen-, Verb- und Verbflexionsverarbeitung einwirken. Drei Altersgruppen wurden untersucht: achtzehn Monate alte Kinder, drei- bis fünfjährige sprachunauffällige und -auffällige Kinder sowie erwachsene Sprecher. Einflüsse der unterschiedlichen Zuverlässigkeiten und Frequenzen der ausgewählten Subsilben konnten für alle Probandengruppen gefunden werden. Die Subsilbe stellt damit eine linguistische Größe dar, die in der frühen Sprachwahrnehmung als cue dienen sowie die Sprachverarbeitung Erwachsener lenken kann und auch für die Sprachdiagnostik und -therapie sprachauffälliger Kinder berücksichtigt werden sollte.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt. Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
rezensiertes Werk: Jeffrey Burns: The music of psalms, Proverbs and Job in the Hebrew bible : A revised theory of musical accents in the Hebrew bible ; general analysis, bibliography, table of contents CD with complete text and audio files of musically reconstructed psalms, proverbs and Job, sung by computer speech synthesis. Wiesbaden : Harrassowitz Verlag, 2011. 169 S. ISBN 978-3-447-06191-9
rezensiertes Werk: Diana Matut: Dichtung und Musik im frühneuzeitlichen Aschkenas : Ms. opp. add. 4o 136 der Bodleian Library, Oxford (das so genannte Wallich-Manuskript) und Ms. hebr. oct. 219 der Stadt- und Universitätsbibliothek, Frankfurt a. M. (2 Bände). - (Studies in Jewish History and Culture ; 29). Leiden [u.a.]: Brill, 2011. - 461 S. ISBN (Set) 978-90-04-18194-6 ISBN (Band I) 978-90-04-20598-7 ISBN (Band II) 978-90-04-20599-4
Im Rahmen des ersten Teils der vorliegenden Doktorarbeit konnten zwei nicht-essentielle (rps15, rpl36) und fünf essentielle (rps3, rps16, rpl22, rpl23, rpl32) im Plastom von Nicotiana tabacum kodierte Proteine des plastidären Ribosoms bezüglich ihrer Essentialität charakterisiert werden. Diese Gene wurden durch gezielte Knockout-Experimente inaktiviert und die resultierenden Effekte untersucht. Die Ergebnisse lassen einen Rückschluss auf die Lokalisation der Gene der insgesamt sieben untersuchten ribosomalen Proteine zu, die im Plastom mehrerer parasitischer, Plastiden-besitzender Spezies nicht mehr nachweisbar sind. Im Fall von rps15 könnte tatsächlich ein Verlust des Genes stattgefunden haben, im Fall der restlichen Gene ist eher mit einem Transfer in den Nukleus zu rechnen (rpl36 ausgenommen). Dies würde bedeuten, dass die Geschwindigkeit der erfolgreichen Etablierung eines Gentransfers in vielen parasitischen Spezies gegenüber grünen Pflanzen stark erhöht ist. Alle in E. coli nicht-essentiellen Proteine mit Homologen in Plastiden (rps15, rpl33, rpl36) sind auch dort, trotz ~1,5 Milliarden Jahren getrennter Evolution, nicht essentiell. Dieses Ergebnis bestätigt den schon früher festgestellten hohen Konservierungsgrad der bakteriellen und plastidären Translationsmaschinerien. Die Phänotypen der KO-Pflanzen der nicht-essentiellen Gene (rps15, rpl36) weisen auf eine interessante Rolle von S15 während der Ribosomenassemblierung hin und im Fall von L36 auf eine wichtige funktionelle Rolle im Plastiden-Ribosomen sowie auf eine Involvierung der Plastidentranslation in der Generierung eines retrograden Signals, welches die Blattform zu beeinflussen im Stande ist. Des Weiteren konnte eine Verbindung der Translationsaktivität mit der Ausbildung von Seitentrieben hergestellt werden, die vermutlich auf veränderte Auxinsynthese im Chloroplast zurückzuführen ist. Aus dem Folgeprojekt, bei dem Doppel-KO-Pflanzen nicht-essentieller ribosomaler Proteine erzeugt wurden, lässt sich auf eine relativ große Plastizität der Architektur von Plastidenribosomen schließen. Im zweiten Teil der Arbeit konnte erfolgreich ein Hochdurchsatz-Screeningsystem zur semiquantitativen Analyse von 192 verschiedenen miRNAs aus Chlamydomonas reinhardtii etabliert werden. Es gelang durch die Untersuchung von 23 verschiedenen Wachstums- und Stressbedingungen sowie Entwicklungsstadien mehrere miRNAs zu identifizieren, die eine differenzielle Expression zeigen sowie unter allen untersuchten Bedingungen konstant bleibende miRNAs nachzuweisen. Dadurch konnten mehrere vielversprechende Kandidaten-miRNAs ausgemacht werden, die nun eingehender untersucht werden können.
Ziel der vorliegenden Arbeit war es, die Auswirkungen von Glucose- und Lipidtoxizität auf die Funktion der β-Zellen von Langerhans-Inseln in einem diabetesresistenten (B6.V-Lepob/ob, ob/ob) sowie diabetessuszeptiblen (New Zealand Obese, NZO) Mausmodell zu untersuchen. Es sollten molekulare Mechanismen identifiziert werden, die zum Untergang der β-Zellen in der NZO-Maus führen bzw. zum Schutz der β-Zellen der ob/ob-Maus beitragen. Zunächst wurde durch ein geeignetes diätetisches Regime in beiden Modellen durch kohlenhydratrestriktive Ernährung eine Adipositas(Lipidtoxizität) induziert und anschließend durch Fütterung einer kohlenhydrathaltigen Diät ein Zustand von Glucolipotoxizität erzeugt. Dieses Vorgehen erlaubte es, in der NZO-Maus in einem kurzen Zeitfenster eine Hyperglykämie sowie einen β-Zelluntergang durch Apoptose auszulösen. Im Vergleich dazu blieben ob/ob-Mäuse längerfristig normoglykämisch und wiesen keinen β-Zelluntergang auf. Die Ursache für den β-Zellverlust war die Inaktivierung des Insulin/IGF-1-Rezeptor-Signalwegs, wie durch Abnahme von phospho-AKT, phospho-FoxO1 sowie des β-zellspezifischen Transkriptionsfaktors PDX1 gezeigt wurde. Mit Ausnahme des Effekts einer Dephosphorylierung von FoxO1, konnten ob/ob-Mäuse diesen Signalweg aufrechterhalten und dadurch einen Verlust von β-Zellen abwenden. Die glucolipotoxischen Effekte wurden in vitro an isolierten Inseln beider Stämme und der β-Zelllinie MIN6 bestätigt und zeigten, dass ausschließlich die Kombination hoher Glucose und Palmitatkonzentrationen (Glucolipotoxizität) negative Auswirkungen auf die NZO-Inseln und MIN6-Zellen hatte, während ob/ob-Inseln davor geschützt blieben. Die Untersuchung isolierter Inseln ergab, dass beide Stämme unter glucolipotoxischen Bedingungen keine Steigerung der Insulinexpression aufweisen und sich bezüglich ihrer Glucose-stimulierten Insulinsekretion nicht unterscheiden. Mit Hilfe von Microarray- sowie immunhistologischen Untersuchungen wurde gezeigt, dass ausschließlich ob/ob-Mäuse nach Kohlenhydratfütterung eine kompensatorische transiente Induktion der β-Zellproliferation aufwiesen, die in einer nahezu Verdreifachung der Inselmasse nach 32 Tagen mündete. Die hier erzielten Ergebnisse lassen die Schlussfolgerung zu, dass der β-Zelluntergang der NZO-Maus auf eine Beeinträchtigung des Insulin/IGF-1-Rezeptor-Signalwegs sowie auf die Unfähigkeit zur β- Zellproliferation zurückgeführt werden kann. Umgekehrt ermöglichen der Erhalt des Insulin/IGF-1-Rezeptor-Signalwegs und die Induktion der β-Zellproliferation in der ob/ob-Maus den Schutz vor einer Hyperglykämie und einem Diabetes.
„Der kluge Spieler und die Ethik des Computerspielens“ ist eine moralphilosophische Analyse der sogenannten „Killerspiel-Diskussion“. Als Aufhänger dient der Amoklauf von Winnenden, in dessen Nachgang Diskussionen über Computerspiele, speziell solche mit gewalthaltigem Inhalt, aufkamen. In der öffentlichen Meinung wird häufig davon ausgegangen, dass das Spielen solcher Computerspiele auch in der Realität zu gewalttätigem Verhalten führt. Einige Politiker stellen diese Spiele sogar mit Kinderpornographie gleich. Mithilfe dreier bekannter normativer ethischer Theorien – dem Konsequentialismus (Mill), der Deontologie (Kant) und der Tugendethik (Aristoteles) – werden die wissenschaftlichen Argumente contra Computerspiele analysiert und bewertet. Die Computerspielgegner konzentrieren sich auf den Inhalt und die grafische Darstellung der Spiele (narratologischer Ansatz). Am Ende einer ausführlichen Darstellung ihrer Argumente stellt sich heraus, dass keines davon haltbar ist, wenn man die ethischen Theorien auf sie anwendet. Einzig der tugendethische Ansatz scheint Ansätze zu bieten, auf denen man aufbauen kann, allerdings nicht gegen, sondern für Spiele. Diesem wird im zweiten Teil des Buches nachgegangen. Miguel Sicarts Werk „The Ethics of Computer Games“ versucht, eine konkrete Ethik des Computerspiels zu entwickeln. In „Der kluge Spieler und die Ethik des Computerspielens“ wird Sicarts Werk zum ersten Mal im Deutschen vorgestellt, in seine einzelnen Bestandteile zerlegt und re-strukturiert. In Sicarts Ethik-Konzept für Computerspiele werden die Inhalte und die Grafik der Computerspiele komplett außen vor gelassen. Sein Ansatz ist ein ludologischer (spielwissenschaftlicher), der das Regelwerk und System der Spiele in den Vordergrund schiebt. Die drei Kernelemente seiner Theorie werden dargestellt: 1. das Computerspiel als moralisches Objekt, 2. der Computerspieler als moralisches Subjekt und 3. das Computerspielen als moralische Handlung. Diese drei Aspekte wirken zusammen und miteinander. Es entsteht eine Wechselwirkung zwischen dem Spiel und dem Spieler, in den auch das Nicht-Spieler-Subjekt einbezogen wird. Ein Mensch spielt ein Computerspiel und wird dadurch zum Spieler dieses Spiels. Er nimmt das Regelwerk auf und ruft seine vorhandene Erfahrung aus früheren Spielen ab, um somit ein möglichst gelungenes Spielen zu bewerkstelligen. Damit ist gemeint, dass er nicht schummelt, dass er keine Tricks anwendet, dass er in Mehrspielerspielen Fairplay walten lässt etc. Zusätzlich ist dieser Spieler aber nicht nur ein Spieler, sondern er befindet sich in sozialen Kontexten, hat Werte und Ansichten und diese fließen in sein Spieler-Repertoire ein. In solch einer Wechselwirkung verhält sich der Spieler moralisch korrekt, wenn er dem Spiel zu dem verhilft, was es ist: eine Erfahrung. Das Spiel ist nämlich zweierlei: 1. Das Objekt, also eine CD in einer Hülle mit einer Spielanleitung etc. 2. Das Spiel, das am Bildschirm tatsächlich erfahren wird, indem es gespielt wird. Sieht das Spiel eine gewalthaltige Lösung vor, ist es in Sicarts Ethik des Computerspiels moralisch richtig, diese zu vollziehen. Was Sicart mit seiner Theorie letztendlich zeichnet, ist das Bild eines „klugen Spielers“. Der dritte Teil des Buches analysiert Sicarts Ethik des Computerspiels und zeigt mithilfe eines praktischen Beispiels seine Schwachstelle auf. Während die Computerspielgegner sich ausschließlich auf den Inhalt und die Grafik konzentrieren, ignoriert Sicart sie gänzlich. Somit stellen beide Ansätze Extrempositionen dar. Sicarts Ansatz wird in eine „Ethik des Computerspielens“ uminterpretiert und anschließend auf die Diskussionen rund um den Amoklauf von Winnenden angewendet. Dadurch können die Ausgangsargumente gegen Killerspiele endgültig wissenschaftlich widerlegt werden. Im letzten Teil des Buches wird die Brücke zum tugendethischen Ansatz des Aristoteles geschlagen: der gemäßigte Mittelweg führt zu einem guten Leben. Eine komplette Computerspielethik muss beide Aspekte beinhalten: den grafisch-inhaltlichen („narratologischen“) und den spieltechnischen („ludologischen“) Ansatz. Nur im Zusammenspiel beider kann eine umfassende Computerspielethik gesucht und gefunden werden. Hierzu wird ein Grundgerüst vorgeschlagen sowie zwei Ideen, welche für weitere Forschung auf dem Gebiet verwendet werden können.
Der kurze, nicht vollständig erhaltene Briefwechsel zwischen Alexander von Humboldt und Karl Ernst von Baer behandelt sehr verschiedene Themen: Politik, Kriegsgefahr, den Wissenschaftsbetrieb, Auszeichnungen und Tagungen, Embryologie und Cholera. Gemeinsam mit Briefen und Reden ergibt sich dabei ein differenziertes Bild der Beurteilung der beiden Wissenschaftler durch den jeweils anderen. Während Baer sich als Bewunderer Humboldts erweist, erscheint umgekehrt Humboldts Einschätzung Baers als ambivalent.
Carlos Montúfar (1780-1816) war ab Quito das dritte ständige Mitglied der amerikanischen Humboldt-Expedition zusammen mit Aimé Bonpland. Das Tagebuch, das er vom 9. Juni bis zum 10. September 1802 kurz vor Cajamarca führte, ist von Interesse für Humboldt-Forscher, zumal Bonpland scheinbar keine Zeugnisse weder in Brief- noch in Tagebuchform überlieferte. Recherchen am Original des Montúfar-Tagebuchs ergaben, dass die 1888 veröffentlichte Transkription durch Marcos Jiménez de la Espada aus verschiedenen Gründen problematisch ist. Es muss deshalb ein Desiderat der Humboldt-Forschung sein, eine korrigierte und kommentierte Transkription vorzulegen. Das geschieht hier zusammen mit einer digitalisierten Kopie des Originals
Im Juli des Jahres 1841 kommt es zu einem Treffen zwischen zwei Männern, das zunächst belanglos erscheint, sich aber Jahre später als wichtige historische Begebenheit herausstellen wird. In seinem Pariser Büro empfängt der 71jährige Naturforscher Alexander von Humboldt den jungen Preußen Ludwig Leichhardt. Der angehende Naturwissenschaftler erhofft sich Zuspruch und Empfehlung des berühmten Alexander von Humboldts. Die Unterredung ist kurz und verläuft für Leichhardt ergebnislos. Es wird das einzige Treffen der beiden Naturwissenschaftler bleiben. Aus heutiger Sicht unverständlich, da Ludwig Leichhardt und Alexander von Humboldt mehr verband, als ihre Leidenschaft für die Naturwissenschaften. Viel zu wenig ist sich bis jetzt den biographischen Analogien und den vergleichbaren geographischen Leistungen der beiden Preußen gewidmet worden.
Über die Autoren
(2012)
Mit dem in §18 des Tarifvertrags für den öffentlichen Dienst (TVöD) festgeschriebenen Leistungsentgelt soll u.a. die Motivation der Mitarbeiterinnen und Mitarbeiter im öffentlichen Dienst gesteigert werden. Eine motivationssteigernde Wirkung wird jedoch von Seiten der Motivationsforschung bestritten. Sie geht im Gegenteil davon aus, dass eine leistungsorientierte Bezahlung (LOB) zu einer Verdrängung der intrinsischen Motivation (Crowding-Out Effekt) führen kann. Mithilfe eines empirischen Tests der Motivation Crowding Theorie gelangt diese Arbeit zu einem differenzierteren Urteil. Es wird gezeigt, dass im Beispiel der Kreisverwaltung Potsdam Mittelmark die subjektive Wahrnehmung der LOB durch den einzelnen Beschäftigten darüber entscheidet, ob dessen Motivation verstärkt oder verdrängt wird. Jene Beschäftigten, die sich durch die LOB kontrolliert fühlen, weisen eine signifikant geringere PSM und intrinsische Motivation als diejenigen auf, die die LOB als fördernd wahrnehmen. Als zentraler Faktor für das Urteil der Beschäftigten wird die wahrgenommene Fairness des Systems identifiziert.
Henning Rohwer wird im Dorf Esau genannt, weil sein Vater sich dazu entschieden hat, die Erbfolge zu durchbrechen und seinen Bauernhof nicht dem erstgeborenen Henning zu übertragen, sondern dem zweiten geeigneteren Sohn Fritz. Fritz soll Anna Harder heiraten. Henning versucht, durch Anritzen des Pferdegeschirrs die Brautfahrt der beiden mit einem tödlichen Unfall enden zu lassen und sich auf diese Weise den Hof zurückzuerobern. Diese Geschichte, die in der 1975 posthum publizierten Baasdörper Krönk andeutungsweise enthalten ist, wurde von F.E. Peters zu Lebzeiten auf Hochdeutsch veröffentlicht. Sie erzählt von dem sozialen Abstieg eines Verstoßenen und den archaischen Selektionsmechanismen und Abwehrstrategien einer Dorfgemeinschaft, die Verstöße ihrer Mitglieder gegen den bäuerlichen Sitten- und Ehrenkodex hart ahndet.
Seit Mitte 1950er Jahre hatten Bundesregierungen immer wieder betont, dass die Bundesrepublik „kein „Einwanderungsland“ sei. Das Bekenntnis der Rot-Grünen Koalition zum „Einwanderungsland“ und die Reformen im Bereich des Staatsbürgerschaftsrechts (1999), des Arbeitsrechts (2000) und der Zuwanderung (2004) markierte daher für viele Experten einen Paradigmawandel in der deutschen Immigrations- und Integrationspolitik. Dieser Wandel ist nie systematisch untersucht worden. Für den Zeitraum von 1981 bis 2005 geht die Arbeit auf der Basis einer stichwortbasierten Inhaltsanalyse und eines Gesetzgebungsindexes deshalb den Fragen nach, (1) inwieweit sich Veränderungen in der politischen Zuwanderungsdiskussion in Deutschland am Beispiel des Deutschen Bundestags nachweisen lassen (Diskursebene), (2) inwiefern die gesetzliche Steuerung und Regulierung von Immigration und Integration in dieser Periode von Liberalisierungstendenzen gekennzeichnet war (Policyebene), und (3) in welchem Verhältnis Diskurs und Policy zueinander stehen. Politische, ökonomische und gesellschaftliche Rahmenbedingungen werden dabei berücksichtigt. Theoretisch basiert die Arbeit auf den Annahmen der Punctuated Equilibrium Theory, die etwas ausführlicher dargestellt und mit den Konzepten Paradigma, Frame und Policywandel verbunden wird.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
Die Restenose stellt ein zentrales Problem der interventionellen Kardiologie dar und ist häufigste Komplikation nach perkutanen Angioplastieverfahren. Hauptursache dieser Wiederverengung des Gefäßes ist die Bildung einer Neointima durch die Proliferation transdifferenzierter vaskulärer glatter Muskelzellen und die Sekretion extrazellulärer Matrix. Die Entstehung reaktiver Sauerstoffspezies (ROS) und die Entzündungsreaktion nach der Gefäßverletzung werden als frühe, die Neointimabildung induzierende Prozesse diskutiert. Im Rahmen dieser Arbeit wurden mehrere Projekte bearbeitet, die Aufschluss über die während der Neointimabildung statt findenden Prozesse geben sollen. Mit Hilfe eines Verletzungsmodells der murinen Femoralarterie wurde der Einfluss der Entzündung und der ROS-Bildung auf die Neointimabildung in der Maus untersucht. Die Behandlung mit dem mitochondrialen Superoxiddismutase-Mimetikum MitoTEMPO verminderte die Bildung der Neointima besser, als die Behandlung mit dem globalen ROS-Fänger N-Acetylcystein. Die stärkste Hemmung der Neointimabildung wurde jedoch durch die Immunsuppression mit Rapamycin erreicht. Interferon-γ (INFγ) ist ein wichtiges Zytokin der Th1-Immunantwort, das in Folge der Gefäßverletzung freigesetzt wird und die proinflammatorischen Chemokine CXCL9 (MIG, Monokine Induced by INF), CXCL10 (IP-10, INF inducible Protein of 10 kDa) und CXCL11 (I-TAC, Interferon inducible T cell-Chemoattractant) induziert. CXCL9, CXCL10 und CXCL11 sind Liganden des CXC-Chemokinrezeptors 3 (CXCR3) und locken chemotaktisch CXCR3 positive Entzündungszellen zum Ort der Gefäßverletzung. Daher wurde die spezielle Bedeutung des Chemokins CXCL10 in der Restenose untersucht. Dazu wurden CXCL10-defiziente Mäuse dem Femoralisverletzungsmodell unterzogen und die Gefäße nach 14 Tagen morphometrisch und immunhistologisch untersucht. CXCL10-Defizienz führte in Mäusen zu einer verminderten Neointimabildung, die mit einer verringerten Inflammation, Apoptose und Proliferation im verletzten Gefäß korrelierte. Neben der Inflammation beeinflusst aber auch die Reendothelialisierung der verletzten Gefäßwand die Restenose. Interessanterweise war im Vergleich zu Wildtyp-Mäusen in den CXCL10-Knockout-Mäusen auch die Reendothelialisierung erheblich verbessert. Offensichtlich ist das CXCR3-Chemokinsystem also in völlig unterschiedliche biologische Prozesse involviert und beeinflusst nicht nur die Bildung der Neoimtima durch die Förderung der Entzündung, sondern auch die Unterdrückung der Reendothelialisierung der verletzten Gefäßwand. Tatsächlich wird der CXCR3 nicht nur auf Entzündungszellen, sondern auch auf Endothelzellen exprimiert. Zur separaten Untersuchung der Rolle des CXCR3 in der Inflammation und der Reendothelialisierung wurde im Rahmen dieser Arbeit damit begonnen konditionelle CXCR3-Knockout-Mäuse zu generieren, in denen der CXCR3 entweder in Entzündungszellen oder in Endothelzellen ausgeschaltet ist. Zum besseren Verständnis der molekularen Mechanismen, mit denen der CXCR3 seine Funktionen vermittelt, wurde zudem untersucht ob dieser mit anderen G-Protein-gekoppelten Rezeptoren (GPCR) interagiert. Die Analyse von Coimmunpräzipitaten deutet auf eine Homodimerisierung der beiden CXCR3 Splicevarianten CXCR3A und CXCR3B, sowie auf die Heterodimerbildung von CXCR3A und CXCR3B mit sich, sowie jeweils mit CCR2, CCR3, CCR5 und den Opioidrezeptoren MOR und KOR hin. Die getestete Methode des Fluoreszenz-Resonanz-Energietransfers (FRET) erwies sich jedoch als ungeeignet zur Untersuchung von CXCR3, da dieser in HEK293T-Zellen nicht korrekt transient exprimiert wurde. Insgesamt deuten die Ergebnisse dieser Arbeit darauf hin, dass das CXCR3-Chemokinsystem eine zentrale Rolle in unterschiedlichen, die Neointimabildung beeinflussenden Prozessen spielt. Damit könnten der CXCR3 und insbesondere das Chemokin CXCL10 interessante Zielmoleküle in der Entwicklung neuer verbesserter Therapien zur Verhinderung der Restenose darstellen.