Refine
Year of publication
- 2012 (646) (remove)
Document Type
- Article (296)
- Doctoral Thesis (129)
- Monograph/Edited Volume (98)
- Review (43)
- Postprint (22)
- Part of Periodical (21)
- Other (16)
- Master's Thesis (9)
- Preprint (6)
- Part of a Book (3)
Language
- German (646) (remove)
Keywords
- Nachhaltigkeit (18)
- Politik (18)
- Wirtschaft (18)
- Zukunft (18)
- economy (18)
- future (18)
- politics (18)
- society (18)
- sustainability (18)
- Dysphagie (17)
Institute
- Wirtschaftswissenschaften (61)
- Institut für Romanistik (55)
- Department Erziehungswissenschaft (45)
- Historisches Institut (43)
- WeltTrends e.V. Potsdam (41)
- MenschenRechtsZentrum (34)
- Institut für Jüdische Studien und Religionswissenschaft (32)
- Sozialwissenschaften (32)
- Department Linguistik (29)
- Extern (29)
Diese Arbeit befasst sich mit der Synthese und Charakterisierung von organolöslichen Thiophen und Benzodithiophen basierten Materialien und ihrer Anwendung als aktive lochleitende Halbleiterschichten in Feldeffekttransistoren. Im ersten Teil der Arbeit wird durch eine gezielte Modifikation des Thiophengrundgerüstes eine neue Comonomer-Einheit für die Synthese von Thiophen basierten Copolymeren erfolgreich dargestellt. Die hydrophoben Hexylgruppen in der 3-Position des Thiophens werden teilweise durch hydrophile 3,6-Dioxaheptylgruppen ersetzt. Über die Grignard-Metathese nach McCullough werden statistische Copolymere mit unterschiedlichen molaren Anteilen vom hydrophoben Hexyl- und hydrophilem 3,6-Dioxaheptylgruppen 1:1 (P-1), 1:2 (P-2) und 2:1 (P-3) erfolgreich hergestellt. Auch die Synthese eines definierten Blockcopolymers BP-1 durch sequentielle Addition der Comonomere wird realisiert. Optische und elektrochemische Eigenschaften der neuartigen Copolymere sind vergleichbar mit P3HT. Mit allen Copolymeren wird ein charakteristisches Transistorverhalten in einem Top-Gate/Bottom-Kontakt-Aufbau erhalten. Dabei werden mit P-1 als die aktive Halbleiterschicht im Bauteil, PMMA als Dielektrikum und Silber als Gate-Elektrode Mobilitäten von bis zu 10-2 cm2/Vs erzielt. Als Folge der optimierten Grenzfläche zwischen Dielektrikum und Halbleiter wird eine Verbesserung der Luftstabilität der Transistoren über mehrere Monate festgestellt. Im zweiten Teil der Arbeit werden Benzodithiophen basierte organische Materialien hergestellt. Für die Synthese der neuartigen Benzodithiophen-Derivate wird die Schlüsselverbindung TIPS-BDT in guter Ausbeute dargestellt. Die Difunktionalisierung von TIPS-BDT in den 2,6-Positionen über eine elektrophile Substitution liefert die gewünschten Dibrom- und Distannylmonomere. Zunächst werden über die Stille-Reaktion alternierende Copolymere mit alkylierten Fluoren- und Chinoxalin-Einheiten realisiert. Alle Copolymere zeichnen sich durch eine gute Löslichkeit in gängigen organischen Lösungsmitteln, hohe thermische Stabilität und durch gute Filmbildungseigenschaften aus. Des Weiteren sind alle Copolymere mit HOMO Lagen höher als -6.3 eV, verglichen mit den Thiophen basierten Copolymeren (P-1 bis P-3), sehr oxidationsstabil. Diese Copolymere zeigen amorphes Verhalten in den Halbleiterschichten in OFETs auf und es werden Mobilitäten bis zu 10-4 cm2/Vs erreicht. Eine Abhängigkeit der Bauteil-Leistung von dem Zinngehalt-Rest im Polymer wird nachgewiesen. Ein Zinngehalt von über 0.6 % kann enormen Einfluss auf die Mobilität ausüben, da die funktionellen SnMe3-Gruppen als Fallenzustände wirken können. Alternativ wird das alternierende TIPS-BDT/Fluoren-Copolymer P-5-Stille nach der Suzuki-Methode polymerisiert. Mit P-5-Suzuki als die aktive organische Halbleiterschicht im OFET wird die höchste Mobilität von 10-2 cm2/Vs erzielt. Diese Mobilität ist somit um zwei Größenordnungen höher als bei P-5-Stille, da die Fallenzustände in diesem Fall minimiert werden und folglich der Ladungstransport verbessert wird. Sowohl das Homopolymer P-12 als auch das Copolymer mit dem aromatischen Akzeptor Benzothiadiazol P-9 führen zu schwerlöslichen Polymeren. Aus diesem Grund werden einerseits Terpolymere aus TIPS-BDT/Fluoren/BTD-Einheiten P-10 und P-11 aufgebaut und andererseits wird versucht die TIPS-BDT-Einheit in die Seitenkette des Styrols einzubringen. Mit der Einführung von BTD in die Hauptpolymerkette werden insbesondere die Absorptions- und die elektrochemischen Eigenschaften beeinflusst. Im Vergleich zu dem TIPS-BDT/Fluoren-Copolymer reicht die Absorption bis in den sichtbaren Bereich und die LUMO Lage wird zu niederen Werten verschoben. Eine Verbesserung der Leistung in den Bauteilen wird jedoch nicht festgestellt. Die erfolgreiche erstmalige Synthese von TIPS-BDT als Seitenkettenpolymer an Styrol P-13 führt zu einem löslichen und amorphen Polymer mit vergleichbaren Mobilitäten von Styrol basierten Polymeren (µ = 10-5 cm2/Vs) im OFET. Ein weiteres Ziel dieser Arbeit ist die Synthese von niedermolekularen organolöslichen Benzodithiophen-Derivaten. Über Suzuki- und Stille-Reaktionen ist es erstmals möglich, verschiedenartige Aromaten über eine σ-Bindung an TIPS-BDT in den 2,6-Positionen zu knüpfen. Die UV/VIS-Untersuchungen zeigen, dass die Absorption durch die Verlängerung der π-Konjugationslänge zu höheren Wellenlängen verschoben wird. Darüber hinaus ist es möglich, thermisch vernetzbare Gruppen wie Allyloxy in das Molekülgerüst einzubauen. Das Einführen von F-Atomen in das Molekülgerüst resultiert in einer verstärkten Packungsordnung im Fluorbenzen funktionalisiertem TIPS-BDT (SM-4) im Festkörper mit sehr guten elektronischen Eigenschaften im OFET, wobei Mobilitäten bis zu 0.09 cm2/Vs erreicht werden.
In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein.
Neben der Frage nach der leistungssteigernden Wirkung von sogenannten "Ich-kann"-Checklisten auf die Metakognitionsstrategien der Schülerinnen und Schüler, geht die Arbeit auch den Fragen nach, welche Schülerinnen und Schüler "Ich-kann"-Checklisten nutzen, in welcher Form und unter welchen Kontextmerkmalen sie am wirksamsten sind. Dabei handelt es sich um Listen mit festgelegten, fachlichen und überfachlichen Kompetenzen einer bzw. mehrerer Unterrichtseinheiten, die in Form von „Ich-kann“-Formulierungen für Schüler geschrieben sind und die Aufforderung einer Selbst- und Fremdeinschätzung beinhalten. Blickt man in die Veröffentlichungen der letzten Jahre zu diesem Thema und in die schulische Praxis, so ist eine deutliche Hinwendung zur Entwicklung und Arbeit mit „Ich-kann“-Checklisten und Kompetenzrastern zu erkennen. Umso erstaunlicher ist es, dass diesbezüglich so gut wie keine empirischen Untersuchungen vorliegen (vgl. Bastian & Merziger, 2007; Merziger, 2007). Basierend auf einer quantitativen Erhebung von 197 Gymnasialschülerinnen und -schülern in der 7. Jahrgangsstufe im Fach Deutsch wurde über einen Zeitraum von zwei Jahren diesen übergeordneten Fragen nachgegangen. Die Ergebnisse lassen die Aussagen zu, dass "Ich-kann"-Checklisten insbesondere für Jungen ein wirksames pädagogisches Instrument der Selbstregulation darstellen. So fördert die Arbeit mit "Ich-kann"-Checklisten nicht nur die Steuerung eigener Lernprozesse, sondern auch die Anstrengungsbereitschaft der Schülerinnen und Schüler, mehr für das Fach tun zu wollen. Eine während der Intervention erfolgte Selbsteinschätzung über den Leistungsstand mittels der "Ich-kann"-Checklisten fördert dabei den freiwilligen außerunterrichtlichen Gebrauch.
In dieser Arbeit werden die Effekte der Synchronisation nichtlinearer, akustischer Oszillatoren am Beispiel zweier Orgelpfeifen untersucht. Aus vorhandenen, experimentellen Messdaten werden die typischen Merkmale der Synchronisation extrahiert und dargestellt. Es folgt eine detaillierte Analyse der Übergangsbereiche in das Synchronisationsplateau, der Phänomene während der Synchronisation, als auch das Austreten aus der Synchronisationsregion beider Orgelpfeifen, bei verschiedenen Kopplungsstärken. Die experimentellen Befunde werfen Fragestellungen nach der Kopplungsfunktion auf. Dazu wird die Tonentstehung in einer Orgelpfeife untersucht. Mit Hilfe von numerischen Simulationen der Tonentstehung wird der Frage nachgegangen, welche fluiddynamischen und aero-akustischen Ursachen die Tonentstehung in der Orgelpfeife hat und inwiefern sich die Mechanismen auf das Modell eines selbsterregten akustischen Oszillators abbilden lässt. Mit der Methode des Coarse Graining wird ein Modellansatz formuliert.
Describing patterns
(2012)
1. What comes to your Mind when you think of 'patterns'? 2. Does your assignment include patterns? 3. Did you decide tu use some of the patterns? 4. If yes, what problem did you explain with the help of patterns? 4. Describe which patterns you used and how you used them 5. Did you explain the concept of a pattern to your pupils? 6. From your point of view – did pattern offer a helpful structure to prepare your lesson? 7. To what extent were patterns useful for the pupils to understand the main topic of the lesson? 8. How would you improve teaching patterns in your assignments? 9. If you didn ’t use any patterns , explain why. 10. What do you think about using the concept of patterns in general? 11. Will you use patterns in other lessons in the future? Describe why or why not. 12. Conclusion
Deepening understanding
(2012)
1. What do we mean, when we say ‘deepening understanding’? 2. Which methods can be used to foster deepening understanding? 3. Examples for deepening understanding based on the assignments 4. Summary of methods and results 5. How did we train deepening under standing in school? 6. What did the pupils learn from it? 7. Our own experiences working on this chapter
Die empirische Arbeit untersucht den interlingualen Transfer von französischen und deutschen Filmtiteln im vergangenen Jahrhundert. Sie basiert auf einem Korpus von 3.200 französischen Originaltiteln und ihren deutschen Neutiteln und schließt eine Forschungslücke der Filmtitelübersetzung für das Sprachenpaar deutsch-französisch. Im theoretischen Teil werden die text- und übersetzungswissenschaftlichen Grundlagen dargelegt. Filmtitel bilden eine eigene Textsorte, die unter Zuhilfenahme der Textualitätskriterien von de Beaugrande/Dressler spezifiziert wird. Anhand ausgewählter Beispiele aus dem Korpus werden maßgebliche Funktionen von Filmtiteln, wie Werbung, Information, Identifikation, Kontakt und Interpretation erörtert. Auf E. Prunčs Translationstypologie basieren jene fünf Strategien, die bei der Übertragung von französischen Filmtiteln in den deutschen Sprach- und Kulturraum zum Einsatz kommen: Identität, Analogie, Variation, Innovation sowie hybride Formen. Ausführlich werden Übersetzungen von Umtitelungen abgegrenzt. Die Auswertung des Korpus ergibt, dass Titelinnovation die am häufigsten angewandte Strategie beim Titeltransfer im gesamten Untersuchungszeitraum darstellt, während Titelidentitäten am seltensten zum Einsatz kommen. Die Betrachtung kürzerer Zeitspannen zeigt gewisse Tendenzen auf, beispielsweise die deutliche Zunahme von Hybridtiteln in jüngster Zeit. Erstmals wird in dieser Arbeit das Phänomen der Mehrfachbetitelungen in verschiedenen deutschsprachigen Ländern aufgegriffen, indem nach Motiven für unterschiedliche Neutitel in Deutschland, der ehemaligen DDR und Österreich gesucht wird. Den Abschluss bildet eine Betrachtung der Filmtitel aus rechtlicher und ökonomischer Perspektive, denn zusammen mit ihren Filmen stellen Titel von hoher Kommerzialität geprägte Texte dar, und wie jedes Wirtschaftsgut erfahren auch sie eine präzise juristische Regulierung.
In older research literature, the prose epics emerging from the court of Elisabeth of Lorraine and Nassau-Saarbrücken have repeatedly been accused of lacking structure and literariness. By contrast, this article shows that narrative principles of seriality generate the complex structure of the voluminous ›Loher und Maller‹: literary strategies of repetition and variation organize the text on different levels. Recurring narrative structures, thematic constellations and motivations as well as lexical stereotypes are part of this comprehensive principle of seriality. Not triviality and insufficiency, but structural and narrative complexity and lexical accumulation of significance characterize ›Loher und Maller‹.
Die Szene des Erzählens
(2012)
Der französische Schriftsteller Céline ist als Person umstritten, und seine literarischen Texte sind schwer auf den Begriff zu bringen. Vor allem an der Schnittstelle von Pamphlet und Roman stellen sich ästhetische Fragen, die von ethischen nicht zu trennen sind.
Antisemitismus und Avantgarde? Was für viele Interpreten nicht zusammengehören darf, scheint in Céline eine groteske Synthese gefunden zu haben. Zeitlebens bedient der Autor die Maske des Monsters, und das nicht nur in seinen Hetzschriften. Das Pamphlet und der Roman liegen dabei auf ein- und derselben Entwicklungslinie: Célines berühmter ›Stil‹ ist nichts anderes als eine ästhetische Strategie, die Selbstinszenierung und Narration auf einen Nenner bringt. Die literaturwissenschaftliche Analyse ist hier mehr als Funktionsbeschreibung. Sie seziert das Monster.
Die Zivilgesellschaft hat dazu beigetragen, dass die Klimakonferenz in
Kopenhagen zu einem Medienereignis wurde. Fernab großer Demonstrationen
haben Nichtregierungsorganisationen (NRO) seit Jahren
einen guten Zugang zu den internationalen Klimaverhandlungen. Am
Beispiel von Chile wird gezeigt, wie Nichtregierungsorganisationen
durch professionellen Lobbyismus ihre Positionen in politische Prozesse
einspeisen. Sie befinden sich in einem Spannungsfeld von Kooperation
und Instrumentalisierung durch politische Entscheidungsträger.
Gescheiterte Klimapolitik?
(2012)
Der Kopenhagener Klimagipfel 2009 ist mit Spannung erwartet worden.
Erreicht wurde lediglich ein Minimalkonsens. Der Autor liefert eine
akteurszentrierte Deutung des Kopenhagener Abkommens und stellt die
Frage nach dem Präzedenzcharakter der Verhandlungen: Handelte es sich
um ein einmaliges Versagen multilateraler Diplomatie oder um einen
Vorgeschmack auf die weltpolitische Routine des 21. Jahrhunderts?
In-Memory Data Management
(2012)
Nach 50 Jahren erfolgreicher Entwicklunghat die Business-IT einen neuenWendepunkt erreicht. Hier zeigen die Autoren erstmalig, wieIn-Memory Computing dieUnternehmensprozesse künftig verändern wird. Bisher wurden Unternehmensdaten aus Performance-Gründen auf verschiedene Datenbanken verteilt: Analytische Datenresidieren in Data Warehouses und werden regelmäßig mithilfe transaktionaler Systeme synchronisiert. Diese Aufspaltung macht flexibles Echtzeit-Reporting aktueller Daten unmöglich. Doch dank leistungsfähigerMulti-Core-CPUs, großer Hauptspeicher, Cloud Computing und immerbesserer mobiler Endgeräte lassen die Unternehmen dieses restriktive Modell zunehmend hinter sich. Die Autoren stellen Techniken vor, die eine analytische und transaktionale Verarbeitung in Echtzeit erlauben und so dem Geschäftsleben neue Wege bahnen.
Bilder machen Geschichte
(2012)
Herzog macht Stadt
(2012)
Üblicherweise vermeiden deutsche Parteien Kampfkandidaturen um den Vorsitz. Dennoch kam es auf dem Mannheimer SPD-Parteitag 1995 zu einer unerwarteten offenen Konkurrenz um das Spitzenamt. Das unbeabsichtigte Scheitern der Inszenierung der „Geschlossenheit“ der Partei führte zum Ausbruch der bis dahin unterdrückten Kämpfe um den Parteivorsitz. Der Mannheimer Parteitag steht exemplarisch für den Zusammenhang zwischen Inszenierung, Disziplin und den informellen Regeln innerparteilicher Machtkonstruktion. Am Beispiel dieses Parteitages zeigt die vorliegende Arbeit, wie umstrittenen Parteivorsitzenden sich gegen Widerstände im Amt behaupten können bzw. woran diese Strategie scheitern kann. Aus figurationstheoretischer Perspektive wird die Inszenierung als Notwendigkeit medienvermittelter Parteienkonkurrenz um Wählerstimmen gefasst. Inszenierung erfordert Selbstdisziplin und das koordinierte Handeln der Parteimitglieder. Innerparteilich wird so wechselseitige Abhängigkeit erzeugt. Diese wird gesteigert durch die Medien-Konzentration auf wenige Spitzenpolitiker. Die Mehrheit der Mandatsträger und Funktionäre ist angewiesen auf das medienwirksame Auftreten der Führung. Für den Medienerfolg braucht die Führung ihrerseits die Unterstützung der Mitglieder. Diese wechselseitige Abhängigkeit erzeugt sowohl typische Relevanzen als auch Möglichkeiten, die jeweils andere Interessengruppe unter Zugzwang zu setzen. Imageprobleme des Vorsitzenden sind als verletzte Erwartungen Anlass für innerparteiliche Machtkämpfe, in denen die Parteiführung insbesondere die Inszenierung der „Geschlossenheit“ nutzen kann, um offene Personaldiskussionen zu verhindern. Da Handlungsoptionen und -grenzen durch das Handeln der Akteure immer wieder neu geschaffen werden, besteht stets das Risiko des Scheiterns innerparteilicher Disziplinierung. Mit dem Nachvollzug von Disziplinierung und den Gründen ihrer Kontingenz versteht sich die vorliegende Arbeit als Beitrag zu einer Theorie informeller Machtregeln in Organisationen mit schwach ausgeprägten Herrschaftsstrukturen. Im ersten Teil der Arbeit wird der Zusammenhang zwischen Inszenierung und Macht durch die Konzepte Theatralität und Figuration entwickelt. Im zweiten Teil werden typische Konstellationen der gegenwärtigen parlamentarischen Demokratie auf typische beziehungsvermittelte Situationsdeutungen, Handlungsmöglichkeiten und -grenzen untersucht. Im dritten Teil wird der kontingente Prozess des innerparteilichen Machtkampfes am Beispiel des Mannheimer Parteitages 1995 nachvollzogen.
Deutschland hat sich innerhalb kurzer Zeit zu einem bedeutenden sicherheitspolitischen Akteur im Weltraum entwickelt. Am 1. Dezember 2010 stellte die Bundesregierung die deutsche Raumfahrtstrategie vor. Immer wieder ist die Rede von der strategischen Bedeutung des Weltraums für die deutsche Sicherheitspolitik. Eine fundierte und überprüfbare Begründung für diese Behauptung fehlt indes. Der Politikwissenschaftler Cornelius Vogt analysiert die strategischen Aspekte deutscher Weltraumsicherheitspolitik. Seine Untersuchung des strategischen Umfeldes, der nationalen Interessen, des sicherheitspolitischen Nutzens des Weltraums und der wichtigsten Anwendungsfelder zeigt, dass der Weltraum zum unverzichtbaren Bestandteil der gesamtstaatlichen Sicherheitsvorsorge avanciert ist.
Die Bittergeschmacksrezeptoren stellen in der Superfamilie der G-Protein-gekoppelten Rezeptoren eine besondere Gruppe dar. Im Menschen können die 25 Rezeptoren eine große Anzahl unterschiedlichster Bittergeschmacksstoffe detektieren. Diese Substanzen können sowohl schädlich, wie etwa Strychnin, als auch der Gesundheit förderliche Arzneistoffe, wie etwa Chloramphenicol sein. Unter den Bittergeschmacksrezeptoren des Menschen gibt es eine Gruppe von drei Rezeptoren, die besonders viele Bitterstoffe detektieren können. Einer von ihnen ist der Rezeptor hTAS2R10. In dieser Arbeit konnte sowohl experimentell als auch durch computergestützte Modellierung gezeigt werden, dass der hTAS2R10 nur eine Bindungstasche besitzt. Das stimmt mit den bisher ausführlich experimentell und in silico untersuchten Rezeptoren hTAS2R1, -R16, -R38 und -R46 überein. Die für die Agonisteninteraktionen nachweislich wichtigen Transmembrandomänen sind in den bisher untersuchten Bittergeschmacksrezeptoren, wie auch im hTAS2R10, die Transmembrandomänen 3, 5, 6 und 7. Die Untersuchungen zeigten, dass die Bindungstasche des hTAS2R10 in der oberen Hälfte des zum extrazellulären Raum gerichteten Bereichs lokalisiert ist. Insbesondere konnte für die untersuchten Agonisten Strychnin, Parthenolid und Denatoniumbenzoat gezeigt werden, dass die Seitenketten der Aminosäuren in Position 3.29 und 5.40 ausgeprägte agonistenselektive Wechselwirkungen eingehen. Weitere Untersuchungen haben ergeben, dass das weitgefächerte Agonistenspektrum des hTAS2R10 zu Lasten der Sensitivität für einzelne Bitterstoffe geht. Der Vergleich wichtiger Positionen im hTAS2R10, hTAS2R46 und mTas2r105 hat deutlich gemacht, dass sich die Bindungsmodi zwischen diesen Rezeptoren unterscheiden. Dies deutet auf eine getrennte evolutionäre Entwicklung der Bindungseigenschaften dieser Rezeptoren hin. Gleichfalls zeigten die Untersuchungen, dass einige Positionen wie z.B. 7.39 die Funktion aller untersuchten Bittergeschmacksrezeptoren prägen, sich jedoch die genaue Bedeutung im jeweiligen Rezeptor unterscheiden kann. Einzelne dieser Positionen konnten auch bei der Agonisteninteraktion des Rhodopsins und des β2-adrenergen Rezeptors beobachtet werden. Die Ergebnisse dieser Arbeit helfen dabei die Wechselwirkungen zwischen Bitterstoffen und den Bittergeschmacksrezeptoren zu verstehen und geben erste Einblicke in die Entwicklung der Rezeptoren in Hinblick auf ihren Funktionsmechanismus. Diese Erkenntnisse können genutzt werden, um Inhibitoren zu entwickeln, die sowohl ein wichtiges Werkzeug in der Rezeptoranalytik wären, als auch dazu genutzt werden könnten, den unerwünschten bitteren Geschmack von Medikamenten oder gesundheitsfördernden sekundären Pflanzenstoffen zu mindern. Damit könnte ein Beitrag zur Gesundheit der Menschen geleistet werden.
In der vorliegenden Arbeit soll der Zusammenhang zwischen Staatsverschuldung und Inflation untersucht werden. Es werden theoretische Übertragungswege von der Staatsverschuldung über die Geldmenge und die langfristigen Zinsen hin zur Inflation gezeigt. Aufbauend auf diesen theoretischen Überlegungen werden die Variablen Staatsverschuldung, Verbraucherpreisindex, Geldmenge M3 und langfristige Zinsen im Rahmen eines Vektor-Fehlerkorrekturmodells untersucht. In der empirischen Analyse werden die Variablen für Deutschland in dem Zeitraum vom 1. Quartal 1991 bis zum 4. Quartal 2010 betrachtet. In ein Vektor-Fehlerkorrekturmodell fließen alle Variablen als potentiell endogen in das Modell ein. Die Ermittlung der Kointegrationsbeziehungen und die Schätzung des Vektor-Fehlerkorrekturmodells erfolgen mithilfe des Johansen-Verfahrens.
Dario Fos "Morte accidentale di un anarchico" und seine Adaptationen in Frankreich und Deutschland
(2012)
Dario Fo (Nobelpreis 1997) ist einer der herausragendsten Erneuerer des italienischen Theaters des 20. Jahrhunderts. Ein Überblick über die wichtigsten Stationen seines künstlerischen Schaffens zeugt zunächst von Fos stetem Bemühen um innovative Ansätze in Bezug auf Theaterkonzeption und –praxis: immer gilt es, sich von den Konventionen des literarischen, bürgerlichen, subventionierten, weitgehend passiv rezipierten Theaters abzugrenzen und das Theater für das Publikum wieder ganzheitlich erfahrbar zu machen. Doch nicht selten geraten er und seine Truppe dabei in Konflikt mit den herrschenden politischen und gesellschaftlichen Umständen. Dies trifft auch auf sein Stück "Morte accidentale di un anarchico" (1970) zu, dessen Analyse im Zentrum dieser Arbeit steht. Ein realhistorischer Fall, der "Fall Pinelli" (bzw. "la strage di Piazza Fontana") 1969, diente Fo als Grundlage seiner sehr zeitnah entstandenen grotesken Farce, die aufgrund ihrer politischen Brisanz für Aufruhr sorgte und die auch im Ausland bis heute immer wieder auf den Spielplänen zu finden ist. Die Arbeit geht daher nicht nur auf die Produktion, Inszenierung und Rezeption des Stücks in Italien ein, sondern nimmt auch die Adaptationen und deren Rezeption in Frankreich und Deutschland in den Blick, wobei die italienspezifische Ausrichtung von Fos Theater (Rekurs auf Traditionen des italienischen Volkstheaters, Verarbeitung (tages)politischen Geschehens etc.) eine besondere Herausforderung für die fremdsprachige Bearbeitung des Stückes und seine Inszenierung darstellt. Neben den produktions- und rezeptionsästhetischen Grundbedingungen des Textes von Dario Fo werden in diesem Zusammenhang auch Spezifika der Bühnenübersetzung beleuchtet und Alternativen hierzu aufgezeigt, die auch bereits von Fos Truppe genutzt werden.
Neben der Frequenz eines cues ist es dessen Zuverlässigkeit, die Kindern hilft, die an sie gerichtete Sprache zu segmentieren, Worteinheiten zu erkennen sowie diese syntaktisch zu kategorisieren. Im Deutschen weist die Subsilbe „Langvokal+Konsonant+/t/“ (z.B. in fehlt, wohnt) zuverlässig auf eine -t-flektierte Verbform hin. Die in kindgerichteter Sprache höher frequente Subsilbe „Kurzvokal+Konsonant+/t/“ (z.B. in Feld, Hemd, fällt, rund) gibt hingegen keinen derartig eindeutigen Hinweis. Es wurde der Frage nachgegangen, inwiefern diese unterschiedlichen Zuverlässigkeiten und Frequenzen der Subsilben auf die Nomen-, Verb- und Verbflexionsverarbeitung einwirken. Drei Altersgruppen wurden untersucht: achtzehn Monate alte Kinder, drei- bis fünfjährige sprachunauffällige und -auffällige Kinder sowie erwachsene Sprecher. Einflüsse der unterschiedlichen Zuverlässigkeiten und Frequenzen der ausgewählten Subsilben konnten für alle Probandengruppen gefunden werden. Die Subsilbe stellt damit eine linguistische Größe dar, die in der frühen Sprachwahrnehmung als cue dienen sowie die Sprachverarbeitung Erwachsener lenken kann und auch für die Sprachdiagnostik und -therapie sprachauffälliger Kinder berücksichtigt werden sollte.
Der Arbeitskreis Militär und Gesellschaft in der Frühen Neuzeit e. V. wurde im Frühjahr 1995 gegründet. Er hat es sich zur Aufgabe gemacht, die Erforschung des Militärs im Rahmen der frühneuzeitlichen Geschichte zu befördern und zugleich das Bewusstsein der Frühneuzeit-HistorikerInnen für die Bedeutung des Militärs in all seinen Funktionen zu wecken. Das Militär steht somit als soziale Gruppe selbst im Mittelpunkt der Aktivitäten des Arbeitskreises, wird aber auch in seinen Wirkungen und Repräsentationen thematisiert. Ziel ist es, die Rolle des Militärs als Teil der frühneuzeitlichen Gesellschaft umfassend herauszuarbeiten und zu würdigen. Insofern versteht der AMG seine Arbeit nicht nur als Beitrag zur Militärgeschichte, sondern vor allem als Beitrag zur Geschichte der Frühen Neuzeit insgesamt. Der Arbeitskreis bietet ein Diskussions- und Informationsforum durch die Organisation von Tagungen, die Herausgabe der Schriftenreihe ‚Herrschaft und soziale Systeme in der Frühen Neuzeit‘, die Zeitschrift ‚Militär und Gesellschaft in der Frühen Neuzeit‘ und die Mailingliste mil-fnz.
rezensiertes Werk: Jeffrey Burns: The music of psalms, Proverbs and Job in the Hebrew bible : A revised theory of musical accents in the Hebrew bible ; general analysis, bibliography, table of contents CD with complete text and audio files of musically reconstructed psalms, proverbs and Job, sung by computer speech synthesis. Wiesbaden : Harrassowitz Verlag, 2011. 169 S. ISBN 978-3-447-06191-9
rezensiertes Werk: Diana Matut: Dichtung und Musik im frühneuzeitlichen Aschkenas : Ms. opp. add. 4o 136 der Bodleian Library, Oxford (das so genannte Wallich-Manuskript) und Ms. hebr. oct. 219 der Stadt- und Universitätsbibliothek, Frankfurt a. M. (2 Bände). - (Studies in Jewish History and Culture ; 29). Leiden [u.a.]: Brill, 2011. - 461 S. ISBN (Set) 978-90-04-18194-6 ISBN (Band I) 978-90-04-20598-7 ISBN (Band II) 978-90-04-20599-4
Im Rahmen des ersten Teils der vorliegenden Doktorarbeit konnten zwei nicht-essentielle (rps15, rpl36) und fünf essentielle (rps3, rps16, rpl22, rpl23, rpl32) im Plastom von Nicotiana tabacum kodierte Proteine des plastidären Ribosoms bezüglich ihrer Essentialität charakterisiert werden. Diese Gene wurden durch gezielte Knockout-Experimente inaktiviert und die resultierenden Effekte untersucht. Die Ergebnisse lassen einen Rückschluss auf die Lokalisation der Gene der insgesamt sieben untersuchten ribosomalen Proteine zu, die im Plastom mehrerer parasitischer, Plastiden-besitzender Spezies nicht mehr nachweisbar sind. Im Fall von rps15 könnte tatsächlich ein Verlust des Genes stattgefunden haben, im Fall der restlichen Gene ist eher mit einem Transfer in den Nukleus zu rechnen (rpl36 ausgenommen). Dies würde bedeuten, dass die Geschwindigkeit der erfolgreichen Etablierung eines Gentransfers in vielen parasitischen Spezies gegenüber grünen Pflanzen stark erhöht ist. Alle in E. coli nicht-essentiellen Proteine mit Homologen in Plastiden (rps15, rpl33, rpl36) sind auch dort, trotz ~1,5 Milliarden Jahren getrennter Evolution, nicht essentiell. Dieses Ergebnis bestätigt den schon früher festgestellten hohen Konservierungsgrad der bakteriellen und plastidären Translationsmaschinerien. Die Phänotypen der KO-Pflanzen der nicht-essentiellen Gene (rps15, rpl36) weisen auf eine interessante Rolle von S15 während der Ribosomenassemblierung hin und im Fall von L36 auf eine wichtige funktionelle Rolle im Plastiden-Ribosomen sowie auf eine Involvierung der Plastidentranslation in der Generierung eines retrograden Signals, welches die Blattform zu beeinflussen im Stande ist. Des Weiteren konnte eine Verbindung der Translationsaktivität mit der Ausbildung von Seitentrieben hergestellt werden, die vermutlich auf veränderte Auxinsynthese im Chloroplast zurückzuführen ist. Aus dem Folgeprojekt, bei dem Doppel-KO-Pflanzen nicht-essentieller ribosomaler Proteine erzeugt wurden, lässt sich auf eine relativ große Plastizität der Architektur von Plastidenribosomen schließen. Im zweiten Teil der Arbeit konnte erfolgreich ein Hochdurchsatz-Screeningsystem zur semiquantitativen Analyse von 192 verschiedenen miRNAs aus Chlamydomonas reinhardtii etabliert werden. Es gelang durch die Untersuchung von 23 verschiedenen Wachstums- und Stressbedingungen sowie Entwicklungsstadien mehrere miRNAs zu identifizieren, die eine differenzielle Expression zeigen sowie unter allen untersuchten Bedingungen konstant bleibende miRNAs nachzuweisen. Dadurch konnten mehrere vielversprechende Kandidaten-miRNAs ausgemacht werden, die nun eingehender untersucht werden können.
Ziel der vorliegenden Arbeit war es, die Auswirkungen von Glucose- und Lipidtoxizität auf die Funktion der β-Zellen von Langerhans-Inseln in einem diabetesresistenten (B6.V-Lepob/ob, ob/ob) sowie diabetessuszeptiblen (New Zealand Obese, NZO) Mausmodell zu untersuchen. Es sollten molekulare Mechanismen identifiziert werden, die zum Untergang der β-Zellen in der NZO-Maus führen bzw. zum Schutz der β-Zellen der ob/ob-Maus beitragen. Zunächst wurde durch ein geeignetes diätetisches Regime in beiden Modellen durch kohlenhydratrestriktive Ernährung eine Adipositas(Lipidtoxizität) induziert und anschließend durch Fütterung einer kohlenhydrathaltigen Diät ein Zustand von Glucolipotoxizität erzeugt. Dieses Vorgehen erlaubte es, in der NZO-Maus in einem kurzen Zeitfenster eine Hyperglykämie sowie einen β-Zelluntergang durch Apoptose auszulösen. Im Vergleich dazu blieben ob/ob-Mäuse längerfristig normoglykämisch und wiesen keinen β-Zelluntergang auf. Die Ursache für den β-Zellverlust war die Inaktivierung des Insulin/IGF-1-Rezeptor-Signalwegs, wie durch Abnahme von phospho-AKT, phospho-FoxO1 sowie des β-zellspezifischen Transkriptionsfaktors PDX1 gezeigt wurde. Mit Ausnahme des Effekts einer Dephosphorylierung von FoxO1, konnten ob/ob-Mäuse diesen Signalweg aufrechterhalten und dadurch einen Verlust von β-Zellen abwenden. Die glucolipotoxischen Effekte wurden in vitro an isolierten Inseln beider Stämme und der β-Zelllinie MIN6 bestätigt und zeigten, dass ausschließlich die Kombination hoher Glucose und Palmitatkonzentrationen (Glucolipotoxizität) negative Auswirkungen auf die NZO-Inseln und MIN6-Zellen hatte, während ob/ob-Inseln davor geschützt blieben. Die Untersuchung isolierter Inseln ergab, dass beide Stämme unter glucolipotoxischen Bedingungen keine Steigerung der Insulinexpression aufweisen und sich bezüglich ihrer Glucose-stimulierten Insulinsekretion nicht unterscheiden. Mit Hilfe von Microarray- sowie immunhistologischen Untersuchungen wurde gezeigt, dass ausschließlich ob/ob-Mäuse nach Kohlenhydratfütterung eine kompensatorische transiente Induktion der β-Zellproliferation aufwiesen, die in einer nahezu Verdreifachung der Inselmasse nach 32 Tagen mündete. Die hier erzielten Ergebnisse lassen die Schlussfolgerung zu, dass der β-Zelluntergang der NZO-Maus auf eine Beeinträchtigung des Insulin/IGF-1-Rezeptor-Signalwegs sowie auf die Unfähigkeit zur β- Zellproliferation zurückgeführt werden kann. Umgekehrt ermöglichen der Erhalt des Insulin/IGF-1-Rezeptor-Signalwegs und die Induktion der β-Zellproliferation in der ob/ob-Maus den Schutz vor einer Hyperglykämie und einem Diabetes.
„Der kluge Spieler und die Ethik des Computerspielens“ ist eine moralphilosophische Analyse der sogenannten „Killerspiel-Diskussion“. Als Aufhänger dient der Amoklauf von Winnenden, in dessen Nachgang Diskussionen über Computerspiele, speziell solche mit gewalthaltigem Inhalt, aufkamen. In der öffentlichen Meinung wird häufig davon ausgegangen, dass das Spielen solcher Computerspiele auch in der Realität zu gewalttätigem Verhalten führt. Einige Politiker stellen diese Spiele sogar mit Kinderpornographie gleich. Mithilfe dreier bekannter normativer ethischer Theorien – dem Konsequentialismus (Mill), der Deontologie (Kant) und der Tugendethik (Aristoteles) – werden die wissenschaftlichen Argumente contra Computerspiele analysiert und bewertet. Die Computerspielgegner konzentrieren sich auf den Inhalt und die grafische Darstellung der Spiele (narratologischer Ansatz). Am Ende einer ausführlichen Darstellung ihrer Argumente stellt sich heraus, dass keines davon haltbar ist, wenn man die ethischen Theorien auf sie anwendet. Einzig der tugendethische Ansatz scheint Ansätze zu bieten, auf denen man aufbauen kann, allerdings nicht gegen, sondern für Spiele. Diesem wird im zweiten Teil des Buches nachgegangen. Miguel Sicarts Werk „The Ethics of Computer Games“ versucht, eine konkrete Ethik des Computerspiels zu entwickeln. In „Der kluge Spieler und die Ethik des Computerspielens“ wird Sicarts Werk zum ersten Mal im Deutschen vorgestellt, in seine einzelnen Bestandteile zerlegt und re-strukturiert. In Sicarts Ethik-Konzept für Computerspiele werden die Inhalte und die Grafik der Computerspiele komplett außen vor gelassen. Sein Ansatz ist ein ludologischer (spielwissenschaftlicher), der das Regelwerk und System der Spiele in den Vordergrund schiebt. Die drei Kernelemente seiner Theorie werden dargestellt: 1. das Computerspiel als moralisches Objekt, 2. der Computerspieler als moralisches Subjekt und 3. das Computerspielen als moralische Handlung. Diese drei Aspekte wirken zusammen und miteinander. Es entsteht eine Wechselwirkung zwischen dem Spiel und dem Spieler, in den auch das Nicht-Spieler-Subjekt einbezogen wird. Ein Mensch spielt ein Computerspiel und wird dadurch zum Spieler dieses Spiels. Er nimmt das Regelwerk auf und ruft seine vorhandene Erfahrung aus früheren Spielen ab, um somit ein möglichst gelungenes Spielen zu bewerkstelligen. Damit ist gemeint, dass er nicht schummelt, dass er keine Tricks anwendet, dass er in Mehrspielerspielen Fairplay walten lässt etc. Zusätzlich ist dieser Spieler aber nicht nur ein Spieler, sondern er befindet sich in sozialen Kontexten, hat Werte und Ansichten und diese fließen in sein Spieler-Repertoire ein. In solch einer Wechselwirkung verhält sich der Spieler moralisch korrekt, wenn er dem Spiel zu dem verhilft, was es ist: eine Erfahrung. Das Spiel ist nämlich zweierlei: 1. Das Objekt, also eine CD in einer Hülle mit einer Spielanleitung etc. 2. Das Spiel, das am Bildschirm tatsächlich erfahren wird, indem es gespielt wird. Sieht das Spiel eine gewalthaltige Lösung vor, ist es in Sicarts Ethik des Computerspiels moralisch richtig, diese zu vollziehen. Was Sicart mit seiner Theorie letztendlich zeichnet, ist das Bild eines „klugen Spielers“. Der dritte Teil des Buches analysiert Sicarts Ethik des Computerspiels und zeigt mithilfe eines praktischen Beispiels seine Schwachstelle auf. Während die Computerspielgegner sich ausschließlich auf den Inhalt und die Grafik konzentrieren, ignoriert Sicart sie gänzlich. Somit stellen beide Ansätze Extrempositionen dar. Sicarts Ansatz wird in eine „Ethik des Computerspielens“ uminterpretiert und anschließend auf die Diskussionen rund um den Amoklauf von Winnenden angewendet. Dadurch können die Ausgangsargumente gegen Killerspiele endgültig wissenschaftlich widerlegt werden. Im letzten Teil des Buches wird die Brücke zum tugendethischen Ansatz des Aristoteles geschlagen: der gemäßigte Mittelweg führt zu einem guten Leben. Eine komplette Computerspielethik muss beide Aspekte beinhalten: den grafisch-inhaltlichen („narratologischen“) und den spieltechnischen („ludologischen“) Ansatz. Nur im Zusammenspiel beider kann eine umfassende Computerspielethik gesucht und gefunden werden. Hierzu wird ein Grundgerüst vorgeschlagen sowie zwei Ideen, welche für weitere Forschung auf dem Gebiet verwendet werden können.
Der kurze, nicht vollständig erhaltene Briefwechsel zwischen Alexander von Humboldt und Karl Ernst von Baer behandelt sehr verschiedene Themen: Politik, Kriegsgefahr, den Wissenschaftsbetrieb, Auszeichnungen und Tagungen, Embryologie und Cholera. Gemeinsam mit Briefen und Reden ergibt sich dabei ein differenziertes Bild der Beurteilung der beiden Wissenschaftler durch den jeweils anderen. Während Baer sich als Bewunderer Humboldts erweist, erscheint umgekehrt Humboldts Einschätzung Baers als ambivalent.
Carlos Montúfar (1780-1816) war ab Quito das dritte ständige Mitglied der amerikanischen Humboldt-Expedition zusammen mit Aimé Bonpland. Das Tagebuch, das er vom 9. Juni bis zum 10. September 1802 kurz vor Cajamarca führte, ist von Interesse für Humboldt-Forscher, zumal Bonpland scheinbar keine Zeugnisse weder in Brief- noch in Tagebuchform überlieferte. Recherchen am Original des Montúfar-Tagebuchs ergaben, dass die 1888 veröffentlichte Transkription durch Marcos Jiménez de la Espada aus verschiedenen Gründen problematisch ist. Es muss deshalb ein Desiderat der Humboldt-Forschung sein, eine korrigierte und kommentierte Transkription vorzulegen. Das geschieht hier zusammen mit einer digitalisierten Kopie des Originals
Im Juli des Jahres 1841 kommt es zu einem Treffen zwischen zwei Männern, das zunächst belanglos erscheint, sich aber Jahre später als wichtige historische Begebenheit herausstellen wird. In seinem Pariser Büro empfängt der 71jährige Naturforscher Alexander von Humboldt den jungen Preußen Ludwig Leichhardt. Der angehende Naturwissenschaftler erhofft sich Zuspruch und Empfehlung des berühmten Alexander von Humboldts. Die Unterredung ist kurz und verläuft für Leichhardt ergebnislos. Es wird das einzige Treffen der beiden Naturwissenschaftler bleiben. Aus heutiger Sicht unverständlich, da Ludwig Leichhardt und Alexander von Humboldt mehr verband, als ihre Leidenschaft für die Naturwissenschaften. Viel zu wenig ist sich bis jetzt den biographischen Analogien und den vergleichbaren geographischen Leistungen der beiden Preußen gewidmet worden.
Über die Autoren
(2012)
Mit dem in §18 des Tarifvertrags für den öffentlichen Dienst (TVöD) festgeschriebenen Leistungsentgelt soll u.a. die Motivation der Mitarbeiterinnen und Mitarbeiter im öffentlichen Dienst gesteigert werden. Eine motivationssteigernde Wirkung wird jedoch von Seiten der Motivationsforschung bestritten. Sie geht im Gegenteil davon aus, dass eine leistungsorientierte Bezahlung (LOB) zu einer Verdrängung der intrinsischen Motivation (Crowding-Out Effekt) führen kann. Mithilfe eines empirischen Tests der Motivation Crowding Theorie gelangt diese Arbeit zu einem differenzierteren Urteil. Es wird gezeigt, dass im Beispiel der Kreisverwaltung Potsdam Mittelmark die subjektive Wahrnehmung der LOB durch den einzelnen Beschäftigten darüber entscheidet, ob dessen Motivation verstärkt oder verdrängt wird. Jene Beschäftigten, die sich durch die LOB kontrolliert fühlen, weisen eine signifikant geringere PSM und intrinsische Motivation als diejenigen auf, die die LOB als fördernd wahrnehmen. Als zentraler Faktor für das Urteil der Beschäftigten wird die wahrgenommene Fairness des Systems identifiziert.
Henning Rohwer wird im Dorf Esau genannt, weil sein Vater sich dazu entschieden hat, die Erbfolge zu durchbrechen und seinen Bauernhof nicht dem erstgeborenen Henning zu übertragen, sondern dem zweiten geeigneteren Sohn Fritz. Fritz soll Anna Harder heiraten. Henning versucht, durch Anritzen des Pferdegeschirrs die Brautfahrt der beiden mit einem tödlichen Unfall enden zu lassen und sich auf diese Weise den Hof zurückzuerobern. Diese Geschichte, die in der 1975 posthum publizierten Baasdörper Krönk andeutungsweise enthalten ist, wurde von F.E. Peters zu Lebzeiten auf Hochdeutsch veröffentlicht. Sie erzählt von dem sozialen Abstieg eines Verstoßenen und den archaischen Selektionsmechanismen und Abwehrstrategien einer Dorfgemeinschaft, die Verstöße ihrer Mitglieder gegen den bäuerlichen Sitten- und Ehrenkodex hart ahndet.
Seit Mitte 1950er Jahre hatten Bundesregierungen immer wieder betont, dass die Bundesrepublik „kein „Einwanderungsland“ sei. Das Bekenntnis der Rot-Grünen Koalition zum „Einwanderungsland“ und die Reformen im Bereich des Staatsbürgerschaftsrechts (1999), des Arbeitsrechts (2000) und der Zuwanderung (2004) markierte daher für viele Experten einen Paradigmawandel in der deutschen Immigrations- und Integrationspolitik. Dieser Wandel ist nie systematisch untersucht worden. Für den Zeitraum von 1981 bis 2005 geht die Arbeit auf der Basis einer stichwortbasierten Inhaltsanalyse und eines Gesetzgebungsindexes deshalb den Fragen nach, (1) inwieweit sich Veränderungen in der politischen Zuwanderungsdiskussion in Deutschland am Beispiel des Deutschen Bundestags nachweisen lassen (Diskursebene), (2) inwiefern die gesetzliche Steuerung und Regulierung von Immigration und Integration in dieser Periode von Liberalisierungstendenzen gekennzeichnet war (Policyebene), und (3) in welchem Verhältnis Diskurs und Policy zueinander stehen. Politische, ökonomische und gesellschaftliche Rahmenbedingungen werden dabei berücksichtigt. Theoretisch basiert die Arbeit auf den Annahmen der Punctuated Equilibrium Theory, die etwas ausführlicher dargestellt und mit den Konzepten Paradigma, Frame und Policywandel verbunden wird.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
Die Restenose stellt ein zentrales Problem der interventionellen Kardiologie dar und ist häufigste Komplikation nach perkutanen Angioplastieverfahren. Hauptursache dieser Wiederverengung des Gefäßes ist die Bildung einer Neointima durch die Proliferation transdifferenzierter vaskulärer glatter Muskelzellen und die Sekretion extrazellulärer Matrix. Die Entstehung reaktiver Sauerstoffspezies (ROS) und die Entzündungsreaktion nach der Gefäßverletzung werden als frühe, die Neointimabildung induzierende Prozesse diskutiert. Im Rahmen dieser Arbeit wurden mehrere Projekte bearbeitet, die Aufschluss über die während der Neointimabildung statt findenden Prozesse geben sollen. Mit Hilfe eines Verletzungsmodells der murinen Femoralarterie wurde der Einfluss der Entzündung und der ROS-Bildung auf die Neointimabildung in der Maus untersucht. Die Behandlung mit dem mitochondrialen Superoxiddismutase-Mimetikum MitoTEMPO verminderte die Bildung der Neointima besser, als die Behandlung mit dem globalen ROS-Fänger N-Acetylcystein. Die stärkste Hemmung der Neointimabildung wurde jedoch durch die Immunsuppression mit Rapamycin erreicht. Interferon-γ (INFγ) ist ein wichtiges Zytokin der Th1-Immunantwort, das in Folge der Gefäßverletzung freigesetzt wird und die proinflammatorischen Chemokine CXCL9 (MIG, Monokine Induced by INF), CXCL10 (IP-10, INF inducible Protein of 10 kDa) und CXCL11 (I-TAC, Interferon inducible T cell-Chemoattractant) induziert. CXCL9, CXCL10 und CXCL11 sind Liganden des CXC-Chemokinrezeptors 3 (CXCR3) und locken chemotaktisch CXCR3 positive Entzündungszellen zum Ort der Gefäßverletzung. Daher wurde die spezielle Bedeutung des Chemokins CXCL10 in der Restenose untersucht. Dazu wurden CXCL10-defiziente Mäuse dem Femoralisverletzungsmodell unterzogen und die Gefäße nach 14 Tagen morphometrisch und immunhistologisch untersucht. CXCL10-Defizienz führte in Mäusen zu einer verminderten Neointimabildung, die mit einer verringerten Inflammation, Apoptose und Proliferation im verletzten Gefäß korrelierte. Neben der Inflammation beeinflusst aber auch die Reendothelialisierung der verletzten Gefäßwand die Restenose. Interessanterweise war im Vergleich zu Wildtyp-Mäusen in den CXCL10-Knockout-Mäusen auch die Reendothelialisierung erheblich verbessert. Offensichtlich ist das CXCR3-Chemokinsystem also in völlig unterschiedliche biologische Prozesse involviert und beeinflusst nicht nur die Bildung der Neoimtima durch die Förderung der Entzündung, sondern auch die Unterdrückung der Reendothelialisierung der verletzten Gefäßwand. Tatsächlich wird der CXCR3 nicht nur auf Entzündungszellen, sondern auch auf Endothelzellen exprimiert. Zur separaten Untersuchung der Rolle des CXCR3 in der Inflammation und der Reendothelialisierung wurde im Rahmen dieser Arbeit damit begonnen konditionelle CXCR3-Knockout-Mäuse zu generieren, in denen der CXCR3 entweder in Entzündungszellen oder in Endothelzellen ausgeschaltet ist. Zum besseren Verständnis der molekularen Mechanismen, mit denen der CXCR3 seine Funktionen vermittelt, wurde zudem untersucht ob dieser mit anderen G-Protein-gekoppelten Rezeptoren (GPCR) interagiert. Die Analyse von Coimmunpräzipitaten deutet auf eine Homodimerisierung der beiden CXCR3 Splicevarianten CXCR3A und CXCR3B, sowie auf die Heterodimerbildung von CXCR3A und CXCR3B mit sich, sowie jeweils mit CCR2, CCR3, CCR5 und den Opioidrezeptoren MOR und KOR hin. Die getestete Methode des Fluoreszenz-Resonanz-Energietransfers (FRET) erwies sich jedoch als ungeeignet zur Untersuchung von CXCR3, da dieser in HEK293T-Zellen nicht korrekt transient exprimiert wurde. Insgesamt deuten die Ergebnisse dieser Arbeit darauf hin, dass das CXCR3-Chemokinsystem eine zentrale Rolle in unterschiedlichen, die Neointimabildung beeinflussenden Prozessen spielt. Damit könnten der CXCR3 und insbesondere das Chemokin CXCL10 interessante Zielmoleküle in der Entwicklung neuer verbesserter Therapien zur Verhinderung der Restenose darstellen.
Inhalt: I. Einleitung und Problemstellung II. Der Erwerb einer Staatsangehörigkeit durch Einbürgerung III. Extraterritoriale Kollektiveinbürgerungen IV. Aktuelle Einbürgerungspraxis in Mittel- und Osteuropa V. Die Beurteilung extraterritorialer Kollektiveinbürgerungen anhand völker- und menschenrechtlicher Normen und Prinzipien VI. Anwendung der Prinzipien auf die Einbürgerungspraxis der mittel- und osteuropäischen Staaten VII. Schlussfolgerung
China und Indien
(2012)
Der Artikel analysiert die neue Rolle aufsteigender Schwellenländer
in den internationalen Klimaverhandlungen am Beispiel Chinas und
Indiens. Die Ablehnung verbindlicher Reduktionsziele für Treibhausgase
wurde in Kopenhagen als Blockadepolitik beider Länder gewertet.
China und Indien können sich in ihrer Position behaupten, da ihr
gestiegenes Gewicht in der multipolaren Weltordnung und die Untätigkeit
führender Industrieländer ihre Verhandlungsposition stärkt. Die
Autorin diskutiert Kooperationsmöglichkeiten auf subnationaler Ebene,
die die Blockadeposition nationaler Regierungen umgehen können.
Auf den Spuren der griechischen Mythen bei Anton Čechov in den Werken der frühen Schaffensperiode
(2012)
Die Poetik des Alltags des russischen Schriftstellers Anton Čechov fasziniert bereits über ein Jahrhundert die Leser weltweit. Dieser Faszination liegt nicht zuletzt der griechische Mythos zugrunde, ein Kulturerbe, das die Denkweise unserer Gesellschaft tief greifend beeinflusst hat. Die antiken Gottheiten und Helden wie Apollo, Dionysos, Pythia, Narziss werden in Čechovs wenig untersuchtem Frühwerk zu Menschen des Alltags. Diese Projektion ist eine parodie- und travestiehafte Modifikation der mythischen Elementarstrukturen. In dieser Verschmelzung des Mythischen mit dem Alltäglichen wird Čechov zum Nachfolger insbesondere des antiken Dramatikers Epicharm. Methodisch basiert meine Analyse auf dem Begriffspaar von „Wiedergebrauchs-Rede“ und „Verbrauchs-Rede“ des Rhetorikers Heinrich Lausberg: Čechov erzählt die prominenten Mythen so wieder, dass sie zwar ihre Erhabenheit verlieren, ihre untergründige Kraft jedoch beibehalten und so das Selbstbild des modernen Menschen bereichern.
Jeder nach seiner Façon
(2012)
Der 300. Geburtstag Friedrich II ist 2012 im Land Brandenburg und der Stadt Potsdam allgegenwärtig. Zahlreiche Veranstaltungen beschäftigen sich mit dem Leben und Wirken des Königs auf vielfältige Art und Weise.
Sein sympathischster Satz „Jeder soll nach seiner Façon selig werden“ – gemäß seiner Religion, war der Anstoß, sich im Jubiläums-Jahr mit Friedrich II abseits touristischer Erlebnisangebote auseinanderzusetzen. Dabei geht es nicht um Friedrich-Exegese, wohl aber um seine Philosophie von Sanssouci und seine politische Theorie.
Den abgekürzten Satz „Jeder nach seiner Façon“ interpretieren wir inzwischen individualistisch. Insbesondere die Versprechen der Urbanität führen zu einer rasanten Verstädterung der Welt, welche noch nie gesehene Herausforderungen an die demokratische Regierbarkeit stellt. Je subjektiver Glück als Abenteuer mit Chancen und Risiken verstanden wird, desto mehr wird urbane Toleranz zu einer eminenten Leistung menschlicher Zivilisation.
Die Verhaltenstugend der Toleranz wird zugleich größer, liberaler und sozialer, je mehr Menschen in großen Städten aufeinander Rücksicht nehmen müssen – Städte sozialisieren. Zugleich mehren sich die Konflikte, die zwar eskalieren, aber auch neue Lebenschancen eröffnen können.
In Deutschland werden die politischen Grenzen der Toleranz vor allem im Umgang mit Fremdenfeindlichkeit und Rechtsextremismus diskutiert. Eine Politik des Hasses und der Gewalt gehört nicht mehr zur Toleranz der Demokratie, die ansonsten vieles integrieren und gleichzeitig verändern kann. Urteilsfähige Bürger halten die Demokratie einer breiten und bündnisbereiten politischen Aufklärung, die Grenzen setzen und Orientierung stiften kann, zusammen.
Das vorliegende Buch von Heinz Kleger nimmt den Satz „Jeder soll nach seiner Façon selig werden“ als Anstoß zum Nachdenken über die historische Bedeutung des Preußenkönigs, seine damalige Gedankenwelt und politische Theorie. Die Selbstinszenierung Friedrich II. als der "große Kümmerer" und volksnahe König spielen dabei ebenso eine Rolle wie seine Philosophie von Sanssouci und sein Verhältnis zur Aufklärung. Kleger stellt den Satz in den Mittelpunkt unserer heutigen Betrachtungen über Toleranz und das Verhältnis von größtmöglicher individueller Freiheit einerseits und Formen Urbaner (Des)Integration andererseits. Dabei geht es um unser Verhältnis in einer liberalen Demokratie zu Herausforderungen der Zuwanderung und Fragen des politischen Extremismus.
Autoritarismus Global
(2012)
Autoritarismus global: Entgegen vieler Erwartungen der Politikwissenschaft und des gehobenen Feuilletons aus den frühen 1990er Jahren scheint sich der autoritäre Regimetyp durchzusetzen. Antworten, die politische Regime auf alte und neue Herausforderungen geben, sind immer weniger demokratischer und immer mehr autoritärer Natur. Wir analysieren diesen WeltTrend: von Lateinamerika und Ostasien über Russland und den Nahen Osten bis in die Mitte Europas.
Der boomende Wirtschaftsriese China erfährt weltweit immer mehr Aufmerksamkeit von Politik, Wirtschaft, Wissenschaft und Öffentlichkeit. Gleichzeitig werden aber auch innere soziale Probleme und die großen regionalen Disparitäten des Landes angesprochen. Auch Berichte über die Situation der Wanderarbeiter in den Großstädten des Landes häufen sich. Obwohl sich die Wissenschaft ebenfalls dieses Themas angenommen hat, mangelt es noch an Untersuchungen darüber, insbesondere an solchen, die eingehend und systematisch mit empirischen Erhebungen „vor Ort“ dieses Phänomen studieren. In diese Lücke stößt die Dissertation von Ling He. In ihrem Mittelpunkt steht das Alltagsleben der Arbeitsmigranten in Peking. Dabei werden behandelt: die Migrationsmotive, die strukturellen und individuellen Rahmenbedingungen für die Arbeitsmigranten und ihre Familien, die Arbeits- und Lebensbedingungen, die Bildung finanzieller Ressourcen sowie auch die Konstruktion sozialer Netzwerke und die Integration der Migranten in Peking. Außerdem geht die Dissertation ein auf die Vorteile, die für die etwa 17 Millionen Einwohner zählende Stadt durch die Beschäftigung der etwa 3 Millionen Arbeitsmigranten geschaffen werden, und sie weist auf die sozialen und ökonomischen Probleme hin, die im Zusammenhang mit der Arbeitsmigration gelöst werden müssten.
Die Krankenhäuser Ostdeutschlands in Transition : eine registerbasierte Analyse amtlicher Paneldaten
(2012)
Vorliegende Arbeit untersucht – nach intensiver Datenanalyse und -klärung – die ersten eineinhalb Jahrzehnte Transition in Ostdeutschland ökonometrisch. Im Mittelpunkt stehen dabei die Interaktionen zwischen der allgemeinen Wirtschaft und den Krankenhäusern sowie – auf Basis der Hauptdiagnose – den in Krankenhäusern behandelten Krankheiten. Verschiedene, in den politischen Diskussionen zur Effizienz der Krankenhäuser übliche Indikatoren werden verglichen und auf ihre Eignung zur adäquaten Beschreibung von Krankenhauskosten und -leistungen geprüft. Durch Einbeziehen der Daten aus Rheinland-Pfalz wird herausgearbeitet, welche der Veränderungen in Ostdeutschland transitionsbezogen sind und ob und wie sich die transitionsbezogenen von eher transitionsunabhängigen Veränderungen trennen lassen. Dazu werden den Daten – jährlich erhobenen Angaben zu einem jeden Krankenhaus bzw. jedem Kreis des Untersuchungsgebietes – Paneldatenmodelle angepasst. Ergänzt um deskriptive Statistiken, Graphen und Choroplethenkarten sind diese Modelle Grundlage einer wirtschaftswissenschaftlichen Interpretation der Veränderungen zwischen 1992 und 2005. Größten Einfluss auf die Krankenhäuser in Ost- wie in Westdeutschland haben die sich verändernden Rahmenbedingungen, zuvörderst die etappenweise Ablösung einer budgetbasierten Krankenhausfinanzierung durch eine, die auf Fallpauschalen für die verschieden schweren Krankenhausfälle (per diagnose related groups – DRG) basiert. Bereits die um das Jahr 2000 unter den Ärzten und Krankenhausmanagern beginnende Diskussion um die Fallpauschalen führt zu erheblichen Veränderungen bei der ärztlichen Diagnosestellung (bzw. -kodierung), diese Veränderungen werden diskutiert. Vor allem den Besonderheiten der Finanzierung des deutschen Gesundheitswesens ist es geschuldet, dass die Transition für die ostdeutschen Krankenhäuser sehr schnell zu einem den westlichen Krankenhäusern ähnlichen Leistungs- und Kostenniveau führt und dass mikroökonomische Unterschiede in Wirtschafts- und Sozialparametern kaum Einfluss auf die Krankenhäuser haben.
Inhalt: - Verschiedene Dimensionen der Nachhaltigkeit - Das Gemeinsame der verschiedenen Dimensionen - Das Streben nach einem besseren Verständnis der Welt - Nachhaltigkeit - Ein allgemeines Modell der Nachhaltigkeit: Das »Existenzraum-Modell« - Das Metasystem Erde - Die Zukunftsfähigkeit der Gesellschaft
„Alle Kinder müssen zu wertvollen Menschen erzogen werden“, forderte Margot Honecker, Erziehungsminister der DDR von 1963 bis 1989. Während liberale Jugendsoziologen die Jugendphase als Moratorium begreifen und damit Heranwachsenden Freiräume zubilligen, geltende soziale Normen infrage zu stellen und selbstbestimmte Lebensentwürfe zu erproben, ohne ihr Handeln in gleicher Weise verantworten zu müssen wie Erwachsene, wurden Jugendliche in der DDR danach beurteilt, inwieweit sie dem Ideal der „allseitig gebildeten sozialistischen Persönlichkeit“ entsprachen. Nach Honeckers Ansicht wäre die freie Entfaltung des Individuums erst im Kommunismus möglich. Individuelle Entfaltung besaß für sie keinen eigenen Wert. Der politische Erziehungsanspruch erstreckte sich grundsätzlich auf alle Lebenswelten von Jugendlichen. Freiräume zur Selbstentfaltung waren in der DDR sowohl materiell als auch ideell eng umgrenzt, ein Umstand den der bundesdeutsche Bildungssoziologe Jürgen Zinnecker als „Jugendmoratorium in kasernierter Form“ bezeichnete. Dem politischen Anpassungsdruck waren Kinder und Jugendliche in besonders starkem Maße ausgesetzt. Zwar richtete sich der Erziehungsanspruch der SED grundsätzlich auf alle Bürger, doch anders als Erwachsene hatten Kinder und Jugendliche noch keine eigenständige Stellung innerhalb des sozialen und gesellschaftlichen Gefüges gefunden und deshalb weniger Möglichkeiten, sich der politischen Einwirkung zu entziehen. Mit dem Jugendgesetz von 1974 wurde die sozialistische Persönlichkeit als Erziehungsziel festgelegt, dem auch die Eltern zu folgen hatten. Bildungschancen wurden schon frühzeitig von der Anpassung an vorgegebene Normen abhängig gemacht, abweichendes Verhalten konnte rigide bestraft werden und gravierende Folgen für den weiteren Lebensweg haben. Auch wenn die meisten Jugendlichen die Forderungen des Staates zu erfüllen schienen und ihre Verbundenheit mit der Politik der SED wann immer gefordert bezeugten, standen sie dieser Politik tatsächlich mindestens gleichgültig gegenüber. Der „Widerspruch zwischen Wort und Tat“ war eines der gravierenden Probleme der Herrschenden im Umgang mit Heranwachsenden. Es gab aber auch Jugendliche, die bewusst Einschränkungen in Kauf nahmen, um ihre Vorstellungen eines selbstbestimmten Lebens verwirklichen zu können. Schon bei geringfügiger Abweichung von ausdrücklichen oder unausgesprochenen Vorgaben mussten sie mit erheblichen staatlichen Eingriffen in ihr persönliches Dasein rechnen. Die äußerste Form der Abweichung waren Ausreiseersuchen und Fluchtversuche. Jugendliche waren unter Antragstellern und „Republikflüchtigen“ überproportional vertreten. Die Dissertation beleuchtet das Spannungsverhältnis zwischen staatlich vorgegebenen Lebenswegen und eigen-sinniger Gestaltung verschiedener Lebensbereiche von Kindern und Jugendlichen für die Jahre der Honecker-Herrschaft zwischen 1971 bis 1989 im Bezirk Schwerin.
Inhalt: Andress, Reinhard: Ein kurzer Brief Humboldts an den Hofmarschall Moritz, Brescius von: Connecting the new world : nets, mobility and progress in the age of Alexander von Humboldt Ette, Ottmar: Alexander von Humboldt in Daniel Kehlmanns Welt Ette, Ottmar: De cómicos e histéricos : una réplica a la sátira sobre eruditos de Daniel Kehlmann Holl, Frank:"Die zweitgrößte Beleidigung des Menschen sei die Sklaverei ..." : Daniel Kehlmanns neu erfundener Alexander von Humboldt Knobloch, Eberhard: Alexander von Humboldt und Carl Friedrich Gauß : im Roman und in Wirklichkeit
Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären?
Auf der Suche nach dem (sich verlierenden) Leben : Wissenschaft und Schreiben bei Roland Barthes
(2012)
Lebenswissenschaft
(2012)
Weltsichten Amerikas : hemisphaerische Konstruktionen in José Lezama Limas "La expresión americana"
(2012)
Wissensformen und Wissensnormen des ZusammenLebens : Literatur - Kultur - Geschichte - Medien
(2012)
Veloziferische Exzellenzen
(2012)
Inhalt: I. Einleitung II. Werkstattbericht – Beispiele von Rekommunalisierungen bzw. Rekommunalisierungsbestrebungen 1. Rekommunalisierung eines Stadtfestes 2. Restrukturierung der kommunalen Wasserversorgung 3. Rekommunalisierung der Fremdenverkehrsförderung III. Rekommunalisierungsdruck aus unerwarteter Richtung 1. Erzwungene Rekommunalisierung, da der Rahmen zulässiger Privatisierung verlassen wurde 2. Rekommunalisierung durch das Versagen interkommunaler Gemeinschaftsarbeit? IV. Schlussbemerkung
Während die EU eine schwere Krise erlebt, denkt Russlands Präsident Putin zusammen mit seinen Amtskollegen aus Belarus und Kasachstan laut über die Schaffung einer Eurasischen Union nach. Basierend auf bereits existierenden Organisationsformen im postsowjetischen Raum soll diese Vereinigung zur Brücke zwischen Europa und Asien werden. Welche Hürden dieses Integrationsprojekt überwinden muss und ob das Ganze auf eine Wiederbelebung der UdSSR hinausläuft, analysiert Sergej Birukov. Ergänzt wird das Spezial durch einen Konferenzbericht zum Berliner Eurasischen Klub sowie einem Beitrag zu Kasachstans Rolle bei der Schaffung der ersten kernwaffenfreien Zone in der nördlichen Hemisphäre.
Das Handbuch informiert über die Menschenrechtsinstitutionen und -verfahren der Vereinten Nationen, der UNESCO und der ILO sowie des Europarates und der Europäischen Union. Die erste Auflage erschien 1998, die jetzt vorliegende dritte Auflage wurde erweitert und aktualisiert. Das Buch bietet neben den erklärenden Texten auch Formblätter für Beschwerden, Adressen, Literaturhinweise und grafische Darstellungen. Das Werk richtet sich unter anderem an Studierende, Menschenrechtsakteure, Personen, die Rechtsschutz suchen und deren Rechtsbeistände.
Der Rechtsstaat im Risiko
(2012)
Die vorliegende Arbeit fokussiert auf den fairen Konsum als Teil des ethischen Konsums. Unter fairem Konsum verstehen wir Kaufentscheidungen, die unter Berücksichtigung der Einhaltung fairer Arbeits- und Geschäftsbedingungen bei der Herstellung von Produkten erfolgen. Unter Einsatz einer neu entwickelten Skala zur Messung des fairen Konsumbewusstseins können wir empirisch nachweisen, dass Produkte mit einem Fairtrade-Siegel Konsumenten einen moralischen Zusatznutzen vermitteln können, für den sie bereit sind, einen Mehrpreis zu zahlen.
Aufgrund seines umstrittenen Atomprogramms ist der Iran ein Dauerbrenner in den Medien. Doch nicht nur deshalb sollte das Land Beachtung finden. Ahmad Naderi gewährt uns einen Blick auf die Geopolitik des Iran, der besonders für die in vielen arabischen Staaten unterdrückten Schiiten Orientierungspunkt sein will. Doch strebt das Land die Hegemonie in der Region an? Johannes Reissner (1949-2009) analysiert das Selbstverständnis des Iran und seine Verhaltensmuster. Sollte der Westen seine Politik überdenken?
Sich der Diskussion stellen
(2012)
Die Zukunftswerkstatt wollte wissen, ob Konzepte wie Liquid Democracy (http://liqd.net/) und Plattformen wie Adhocracy (http://code.adhocracy.de/) oder AVAAZ (www.avaaz.org/ de/) konkret für das Bibliothekswesen eingesetzt werden können. Die Beteiligung an der Internet-Enquete Kommission des Bundestages (https://enquetebeteiligung. de/) zeigte, dass die Nutzung im Sinne von gemeinschaftlicher Politikberatung möglich ist. Die »Stop SOPA/PIPA«- und die »Anti-ACTA«-Mobilisierungen belegen, dass Politik immer mehr auf die Bürger eingehen muss – und Social Media mitnichten tot sind. Heike Stadler beschäftigt sich intensiv mit dem Thema »Bürgerbeteiligungen für Bibliotheken« (siehe unter anderem BuB Heft 6/2011, Seite 450). Hier ihr Beitrag für die Zukunftswerkstatt
Ein viel diskutiertes Thema unserer Zeit ist die Zukunft der Energiegewinnung und Speicherung. Dabei nimmt die Nanowissenschaft eine bedeutende Rolle ein; sie führt zu einer Effizienzsteigerung bei der Speicherung und Gewinnung durch bereits bekannte Materialien und durch neue Materialien. In diesem Zusammenhang ist die Chemie Wegbereiter für Nanomaterialien. Allerdings führen bisher die meisten bekannten Synthesen von Nanopartikeln zu undefinierten Partikeln. Eine einfache, kostengünstige und sichere Synthese würde die Möglichkeit einer breiten Anwendung und Skalierbarkeit bieten. In dieser Arbeit soll daher die Darstellung der einfachen Synthese von Mangannitrid-, Aluminiumnitrid-, Lithiummangansilicat-, Zirkonium-oxinitrid- und Mangancarbonatnanopartikel betrachtet werden. Dabei werden die sogenannte Harnstoff-Glas-Route als eine Festphasensynthese und die Solvothermalsynthese als typische Flüssigphasensynthese eingesetzt. Beide Synthesewege führen zu definierten Partikelgrößen und interessanten Morphologien und ermöglichen eine Einflussnahme auf die Produkte. Im Falle der Synthese der Mangannitridnanopartikel mithilfe der Harnstoff-Glas-Route führt diese zu Nanopartikeln mit Kern-Hülle-Struktur, deren Einsatz als Konversionsmaterial erstmalig vorgestellt wird. Mit dem Ziel einer leichteren Anwendung von Nanopartikeln wird eine einfache Beschichtung von Oberflächen mit Nanopartikeln mithilfe der Rotationsbeschichtung beschrieben. Es entstand ein Gemisch aus MnN0,43/MnO-Nanopartikeln, eingebettet in einem Kohlenstofffilm, dessen Untersuchung als Konversionsmaterial hohe spezifische Kapazitäten (811 mAh/g) zeigt, die die von dem konventionellen Anodenmaterial Graphit (372 mAh/g) übersteigt. Neben der Synthese des Anodenmaterials wurde ebenfalls die des Kathodenmaterials Li2MnSiO4-Nanopartikeln mithilfe der Harnstoff-Glas-Route vorgestellt. Mithilfe der Synthese von Zirkoniumoxinitridnanopartikeln Zr2ON2 kann eine einfache Einflussnahme auf das gewünschte Produkt durch die Variation derReaktionsbedingungen, wie Harnstoffmenge oder Reaktionstemperatur, bei der Harnstoff-Glas-Route demonstriert werden. Der Zusatz von kleinsten Mengen an Ammoniumchlorid vermeidet, dass sich Kohlenstoff im Endprodukt bildet und führt so zu gelben Zr2ON2-Nanopartikeln mit einer Größe d = 8 nm, die Halbleitereigen-schaften besitzen. Die Synthese von Aluminiumnitridnanopartikeln führt zu kristallinen Nanopartikeln, die in eine amorphe Matrix eingebettet sind. Die Solvothermalsynthese von Mangancarbonatnanopartikel lässt neue Morphologien in Form von Nanostäbchen entstehen, die zu schuppenartigen sphärischen Überstrukturen agglomeriert sind.
Im Fokus dieser Arbeit stand der Aufbau einer auf DNA basierenden Nanostruktur. Der universelle Vier-Buchstaben-Code der DNA ermöglicht es, Bindungen auf molekularer Ebene zu adressieren. Die chemischen und physikalischen Eigenschaften der DNA prädestinieren dieses Makromolekül für den Einsatz und die Verwendung als Konstruktionselement zum Aufbau von Nanostrukturen. Das Ziel dieser Arbeit war das Aufspannen eines DNA-Stranges zwischen zwei Fixpunkten. Hierfür war es notwendig, eine Methode zu entwickeln, welche es ermöglicht, Funktionsmoleküle als Ankerelemente ortsaufgelöst auf eine Oberfläche zu deponieren. Das Deponieren dieser Moleküle sollte dabei im unteren Mikrometermaßstab erfolgen, um den Abmaßen der DNA und der angestrebten Nanostruktur gerecht zu werden. Das eigens für diese Aufgabe entwickelte Verfahren zum ortsaufgelösten Deponieren von Funktionsmolekülen nutzt das Bindungspaar Biotin-Neutravidin. Mit Hilfe eines Rasterkraftmikroskops (AFM) wurde eine zu einem „Stift“ umfunktionierte Rasterkraftmikroskopspitze so mit der zu deponierenden „Tinte“ beladen, dass das Absetzen von Neutravidin im unteren Mikrometermaßstab möglich war. Dieses Neutravidinmolekül übernahm die Funktion als Bindeglied zwischen der biotinylierten Glasoberfläche und dem eigentlichen Adressmolekül. Das somit generierte Neutravidin-Feld konnte dann mit einem biotinylierten Adressmolekül durch Inkubation funktionalisiert werden. Namensgebend für dieses Verfahren war die Möglichkeit, Neutravidin mehrmals zu deponieren und zu adressieren. Somit ließ sich sequenziell ein Mehrkomponenten-Feld aufbauen. Die Einschränkung, mit einem AFM nur eine Substanz deponieren zu können, wurde so umgangen. Ferner mußten Ankerelemente geschaffen werden, um die DNA an definierten Punkten immobilisieren zu können. Die Bearbeitung der DNA erfolgte mit molekularbiologischen Methoden und zielte darauf ab, einen DNA-Strang zu generieren, welcher an seinen beiden Enden komplementäre Adressequenzen enthält, um gezielt mit den oberflächenständigen Ankerelementen binden zu können. Entsprechend der Geometrie der mit dem AFM erzeugten Fixpunkte und den oligonukleotidvermittelten Adressen kommt es zur Ausbildung einer definierten DNA-Struktur. Mit Hilfe von fluoreszenzmikroskopischen Methoden wurde die aufgebaute DNA-Nanostruktur nachgewiesen. Der Nachweis der nanoskaligen Interaktion von DNA-bindenden Molekülen mit der generierten DNA-Struktur wurde durch die Bindung von PNA (peptide nucleic acid) an den DNA-Doppelstrang erbracht. Diese PNA-Bindung stellt ihrerseits ein funktionales Strukturelement im Nanometermaßstab dar und wird als Nanostrukturbaustein verstanden.
In diesem einleitenden Beitrag des Themenschwerpunktes wird der
Hintergrund der internationalen Klimaverhandlungen erläutert und
die Ergebnisse des Kopenhagen-Akkords vorgestellt. Angesichts des
Scheiterns der Kopenhagener Konferenz muss die zeitnahe Schließung
eines rechtlich bindenden, globalen Klimaabkommens als unwahrscheinlich
gelten. Die Klimapolitik wird zukünftig verstärkt auf nationalstaatlicher
und transnationaler Ebene erfolgen.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
Die Entwicklung neuer Verfahren für die Rückführung von Palladium aus Altmaterialien, wie gebrauchten Autoabgaskatalysatoren, in den Stoffstromkreislauf ist sowohl aus ökologischer als auch ökonomischer Sicht erstrebenswert. In dieser Arbeit wurden neue Flüssig-Flüssig- und Fest-Flüssig-Extraktionsmittel entwickelt, mit denen Palladium(II) aus einer oxidierenden, salzsauren Laugungslösung, die neben Palladium auch Platin und Rhodium sowie zahlreiche unedle Metalle enthält, zurückgewonnen werden kann. Die neuen Extraktionsmittel ungesättigte monomere 1,2-Dithioether und oligomere Ligandenmischungen mit vicinalen Dithioether-Einheiten – sind im Gegensatz zu vielen in der Literatur aufgeführten Extraktionsmitteln hochselektiv. Aufgrund ihrer geometrischen und elektronischen Präorganisation bilden sie mit Palladium(II) stabile quadratisch-planare Chelatkomplexe. Für die Entwicklung des Flüssig-Flüssig-Extraktionsmittels wurde eine Reihe von ungesättigten 1,2-Dithioetherliganden dargestellt, welche auf einer starren 1,2-Dithioethen-Einheit, die in ein variierendes elektronenziehendes Grundgerüst eingebettet ist, basieren und polare Seitenketten besitzen. Neben der Bestimmung der Kristallstrukturen der Liganden und ihrer Palladiumdichlorid-Komplexe wurden die elektro- und photochemischen Eigenschaften, die Komplexstabilität und das Verhalten in Lösung untersucht. In Flüssig-Flüssig-Extraktionsuntersuchungen konnte gezeigt werden, dass einige der neuen Liganden industriell genutzten Extraktionsmitteln durch eine schnellere Einstellung des Extraktionsgleichgewichts überlegen sind. Anhand von Kriterien, die für eine industrielle Nutzbarkeit entscheidend sind, wie: guter Oxidationsbeständigkeit, einer hohen Extraktionsausbeute (auch bei hohen Salzsäurekonzentrationen der Speiselösung), schneller Extraktionskinetik und einer hohen Selektivität für Palladium(II) wurde aus der Reihe der sechs Liganden ein geeignetes Flüssig-Flüssig-Extraktionsmittel ausgewählt: 1,2-Bis(2-methoxyethylthio)benzen. Mit diesem wurde ein praxisnahes Flüssig-Flüssig-Extraktionssystem entwickelt. Nach der schrittweisen Adaption der wässrigen Phase von einer Modelllösung hin zu der oxidierenden, salzsauren Laugungslösung erfolgte die Auswahl eines geeigneten großtechnisch, einsetzbaren Lösemittels (1,2-Dichlorbenzen) und eines effizienten Reextraktionsmittels (0,5 M Thioharnstoff in 0,1 M HCl). Die hohe Palladium(II)-Selektivität dieses Flüssig-Flüssig-Extraktionssystems konnte verifiziert und seine Wiederverwendbarkeit und Praxistauglichkeit unter Beweis gestellt werden. Weiterhin wurde gezeigt, dass sich beim Kontakt mit oxidierenden Medien aus dem Dithioether 1,2-Bis(2-methoxyethylthio)benzen geringe Mengen des Thioethersulfoxids 1-(2-Methoxyethylsulfinyl)-2-(2-methoxyethylthio)benzen bilden. Dieses wird im sauren Milieu protoniert und beschleunigt die Extraktion wie ein Phasentransferkatalysator, ohne jedoch die Palladium(II)-Selektivität herabzusetzen. Die Kristallstruktur des Palladiumdichlorid-Komplexes des Tioethersulfoxids zeigt, dass der unprotonierte Ligand Palladium(II), analog zum Dithioether, über die chelatisierenden Schwefelatome koordiniert. Verschiedene Mischungen von Oligo(dithioether)-Liganden und der monomere Ligand 1,2-Bis(2-methoxyethylthio)benzen dienten als Extraktionsmittel für Fest-Flüssig-Extraktionsversuche mit SIRs (solvent impregnated resins) und wurden zu diesem Zweck auf hydrophilem Kieselgel und organophilem Amberlite® XAD 2 adsorbiert. Die Oligo(dithioether)-Liganden basieren auf 1,2-Dithiobenzen oder 1,2-Dithiomaleonitril-Einheiten, welche über Tris(oxyethylen)ethylen- oder Trimethylen-Brücken miteinander verknüpft sind. Mit Hilfe von Batch-Versuchen konnte gezeigt werden, dass sich strukturelle Unterschiede - wie die Art der chelatisierenden Einheit, die Art der verbrückenden Ketten und das Trägermaterial - auf die Extraktionsausbeuten, die Extraktionskinetik und die Beladungskapazität auswirken. Die kieselgelhaltigen SIRs stellen das Extraktionsgleichgewicht viel schneller ein als die Amberlite® XAD 2-haltigen. Jedoch bleiben die Extraktionsmittel auf Amberlite® XAD 2, im Gegensatz zu Kieselgel, dauerhaft haften. Im salzsauren Milieu sind die 1,2-Dithiobenzen-derivate besser als Extraktionsmittel geeignet als die 1,2-Dithiomaleonitrilderivate. In Säulenversuchen mit der oxidierenden, salzsauren Laugungslösung und wiederverwendbaren, mit 1,2-Dithiobenzenderivaten imprägnierten, Amberlite® XAD 2-haltigen SIRs zeigte sich, dass für die Realisierung hoher Beladungskapazitäten sehr geringe Pumpraten benötigt werden. Trotzdem konnte die gute Palladium(II)-Selektivität dieser Festphasenmaterialien demonstriert werden. Allerdings wurden in den Eluaten im Gegensatz zu den Eluaten, die aus Flüssig-Flüssig-Extraktion resultierten neben dem Palladium auch geringe Mengen an Platin, Aluminium, Eisen und Blei gefunden.
Krieg in Sicht?
(2012)
Säbelrasseln und Bombendrohungen am Persischen Golf. Israelische Politiker sprechen sich für Angriffe auf iranische Nuklearanlagen aus, bevor es zu "spät" sei. US-Verteidigungsminister Panetta hält einen Angriff Israels auf den Iran im Frühling für wahrscheinlich, während sein Präsident abwiegelt: Israel habe noch keine Entscheidung getroffen, man müsse den Sanktionen mehr Zeit geben. Mittlerweile werden aber die Instrumente scharf gemacht. Die 5. Flotte überwacht den Golf; in der Region sind etwa 40.000 US-Soldaten stationiert. Der Iran setzt auf Seemanöver.