Filtern
Erscheinungsjahr
- 2015 (126) (entfernen)
Dokumenttyp
- Dissertation (126) (entfernen)
Sprache
- Deutsch (126) (entfernen)
Gehört zur Bibliographie
- ja (126)
Schlagworte
- Schriftspracherwerb (2)
- Wirtschaft (2)
- thermoresponsive (2)
- Adhäsionsproteine (1)
- Alfred Döblin (1)
- Alkohol (1)
- Analphabetismus (1)
- Apis mellifera (1)
- Arbeitsteilung (1)
- Arthur Ewert (1)
Institut
- Wirtschaftswissenschaften (16)
- Sozialwissenschaften (13)
- Bürgerliches Recht (11)
- Institut für Chemie (9)
- Institut für Ernährungswissenschaft (9)
- Öffentliches Recht (9)
- Institut für Biochemie und Biologie (7)
- Department Erziehungswissenschaft (6)
- Institut für Germanistik (6)
- Historisches Institut (5)
- Department Psychologie (4)
- Institut für Künste und Medien (4)
- Institut für Physik und Astronomie (4)
- Institut für Romanistik (4)
- Institut für Umweltwissenschaften und Geographie (3)
- Strafrecht (3)
- Department Sport- und Gesundheitswissenschaften (2)
- Extern (2)
- Institut für Informatik und Computational Science (2)
- Institut für Mathematik (2)
- Department Grundschulpädagogik (1)
- Department Musik und Kunst (1)
- Institut für Religionswissenschaft (1)
- Juristische Fakultät (1)
- Klassische Philologie (1)
- Strukturbereich Bildungswissenschaften (1)
Die Arbeit befasst sich zunächst mit der Analyse und Einordnung des Begriffs der Daseinsvorsorge und deren Erbringung durch den Staat. Schwerpunkt der Betrachtung bildet dabei die Energieversorgung als klassische Aufgabe staatlicher Daseinsvorsorge.
Weiterhin wird der durch die Liberalisierung der Energieversorgung im Jahr 1998 eingeleitete Wandel von sog. natürlichen Monopolen, hin zu einem wettbewerblichen System betrachtet. Dabei wird aufgezeigt, dass sich durch die Einführung des Wettbewerbs weder die damit erhofften Kostenreduzierungen, noch das von Kritikern befürchtete Sterben der kommunalen Energieversorger bewahrheitet haben. Statt einer freien Preisbildung im Wettbewerb ist es zu einer faktischen Verlagerung der früher staatlich festgesetzten Energiepreisgenehmigung auf die Gerichte gekommen, die hierfür jedoch nicht ausgelegt sind. Kommunale Stadtwerke haben sich in der wettbewerblichen Energieversorgung dagegen so gut behauptet, dass seit einiger Zeit ein Trend zur Rekommunalisierung von Energieversorgung auf kommunaler Ebene zu verzeichnen ist.
Diesem offensichtlichen Wunsch nach einer gesteigerten Einflussnahme der Gemeinden auf die örtliche Energieversorgung läuft der aktuelle Rechtsrahmen der energierechtlichen Konzessionsvergabe in Gestalt des § 46 EnWG und seiner Auslegung durch die Rechtsprechung der Zivilgerichte zuwider. Die Arbeit zeigt auf, dass von Beginn der Liberalisierung der kommunale Einfluss auf die örtliche Konzessionsvergabe schrittweise und stetig beschnitten wurde, so dass gegenwärtig ein Zustand der Aushöhlung erreicht ist, der als unzulässiger Eingriff in den geschützten Kernbereich der kommunalen Selbstverwaltungsgarantie i.S.d. Art. 28 II GG anzusehen ist.
Patentpools
(2015)
Elisabeth Eppinger erforscht in diesem Buch aktuelle Patentpools, ihre Eigenschaften und alternative Lösungen zur gemeinsamen Nutzung von Patenten. Patentpools haben das Potenzial, Patentblockaden zu lösen und Innovationen zu fördern. Die Autorin diskutiert die Rolle von Patentkooperationen im Rahmen des strategischen Technologie- und Innovationsmanagements sowie der Innovationsförderung. Es wird gezeigt, welche strukturellen Faktoren, Motive und Charakteristika von Akteuren unterschiedliche Patentpools begünstigen
Frankreich 1958: Der Algerienkrieg eskaliert, die links-liberale Regierung implodiert und reicht die Macht an General Charles de Gaulle weiter. Der hebt im Oktober die V. Republik aus der Taufe - und die französische Linke gesteht damit ihre Ohnmacht ein. Die Sozialisten haben den Machtantritt des konservativen Generals nicht verhindert, sondern diesen sogar mit angezettelt. Auch die Kommunisten sind isoliert und kämpfen mit dem stalinistischen Erbe. Einige Genossen erkennen ihre sozialistische Bewegung nicht wieder und beschließen, eine neue linke Bewegung aufbauen. Sie wollen de Gaulle und den Krieg offen bekämpfen, "veraltete" linke Ideologien über Bord werfen und ein "Labor" für neues linkes Denken schaffen. Parteimitglieder der Altkommunisten, Sozialisten und Trotzkisten, aber auch Künstler, Philosophen und Schriftsteller wurden Teil dieser heterogenen Bewegung, die heute als Neue Linke bezeichnet wird. Der interessierte Leser begreift nun die Ideengeschichte dieser Neuen französischen Linken, die nicht nur einen starken Einfluss auf die Ereignisse um 1968 in Frankreich ausübte, sondern deren Ansätze noch bis heute im linken Spektrum, inner- wie außerparteilich, für Diskussionsstoff sorgen.
Welcher Diskurs wird um Jungenarbeit als geschlechtssensible pädagogische Arbeit mit männlichen Kindern und Jugendlichen und deren Umsetzung in kurzzeitpädagogischen außerunterrichtlichen Angeboten geführt? Thomas Viola Rieske geht dieser Frage nach und legt nahe, dass Normativität als unausweichlicher Bestandteil pädagogischer Praxis anerkannt und zugleich kritisch reflektiert werden muss, um Jungen in ihrer Entwicklung stärken zu können. Er diskutiert die verschiedenen geschlechtertheoretischen und pädagogischen Grundpositionen, die im Fachdiskurs über Jungenarbeit bestehen und untersucht die Umsetzung von Jungenarbeit. Er zeigt auf, dass die Teilnehmer der beobachteten Jungenseminare einerseits zu einem partnerschaftlichen, normenkritischen und direkten Kontakt mit sich und anderen befähigt werden, andererseits aber auch Zuschreibungen, Grenzüberschreitungen und ein Übergehen ihrer Bedürfnisse erfahren.
Symbolische Bedeutungen sind für den Erfolg von Marken heutzutage unerlässlich, denn Produkte lassen sich in postmodernen Konsumgesellschaften meist nicht mehr ausschließlich durch funktionale Leistungsunterschiede vom Wettbewerb differenzieren. Vielmehr sollten Marken zudem über einen signifikanten Zusatznutzen verfügen, welcher grundsätzlich sozialpsychologischer Natur ist. Dieser in der Markenpersönlichkeit verdichtete symbolische Kern spricht die zentralen menschlichen Bedürfnisse nach Selbstdefinition und Selbstausdruck an, da Individuen sich als „soziale Tiere“ grundlegend über die Zugehörigkeit zu sozialen Gruppen definieren. Einstellungen relevanter Bezugspersonen zum eigenen Selbstbild sind fundamental für die persönliche Standortbestimmung. Genauso leiten Konsumenten symbolische Markenbedeutungen von ihren Bezugsgruppen ab. Individuen evaluieren demnach permanent, inwiefern die wahrgenommene Markenpersönlichkeit zum aktuellen bzw. angestrebten Selbstkonzept passt. Diese dargestellten Phänomene unterliegen dem kulturellen Einfluss der jeweiligen Gesellschaft, in der sie sich herausbilden. Die symbolischen Bedeutungen von Selbstbildern und Marken formen sich also zwischen Kulturen bspw. unter unterschiedlich stark geartetem sozialem Einfluss.
Die Untersuchung geht demnach der Frage auf den Grund, inwiefern die soziale Umgebung Einfluss auf die Wahrnehmung symbolischer Markenaspekte und deren wahrgenommener Kongruenz zum Selbstkonzept von Konsumenten ausübt. Darüber hinaus eruiert der Verfasser intensiv, ob und in welchem Umfang die Empfänglichkeit für die verschiedenen Facetten sozialen Einflusses von der Enkulturation des Konsumenten abhängt.
Es werden somit Forderungen aus Marketing- und Konsumentenverhaltensforschung adressiert, wonach die sozialen sowie die kulturellen Einflusskomponenten stärker zu berücksichtigen sind, um ein vollständigeres Bild von Konsumentscheidungen zu erlangen.
Die zahlreichen theoretischen und empirischen Erkenntnisse der Studie weisen auf wichtige Implikationen für die intra- und interkulturelle Segmentierung von Zielgruppen hin. Empfehlungen für die strategische Positionierung von symbolischen Markenkernen und deren Kommunikation werden ebenfalls geliefert.
Innerhalb der EU wird die Fusionskontrolle auf zwei vertikal nachgelagerten Ebenen durchgeführt, der europäischen und der nationalen Instanz. Da beide Ebenen nicht unverbunden sind, ergibt sich ein mehrdimensionales Kompetenzproblem. Die Fusionskontrollkompetenzen sind vertikal (europäische versus mitgliedstaatliche Ebene) und horizontal (mitgliedstaatliche Ebene) abgegrenzt. Während auf vertikaler Ebene konkurrierende Zuständigkeiten ausgeschlossen sind, sind horizontal Überlappungen möglich.
Die Arbeit beschäftigt sich mit Konflikten bei der Abgrenzung von Fusionskontrollkompetenzen. Zudem wird ein Alternativmodell erarbeitet, das dem bestehenden System aus ökonomischer Perspektive überlegen ist.
Der Mensch in der Moderne lebt in einem Spannungsverhältnis zwischen all dem, was nun menschenmöglich erscheint und dem, was er als Einzelner, aufgrund seines beschränkten Kräftehaushalts, zu leisten vermag. Die notwendige Spezialisierung in einem beschränkten Feld schließt ihn, wie Max Weber es in »Wissenschaft als Beruf« darstellt, von vielen anderen Bereichen aus. Besonders eklatant wird dies in der Zeit der Wende vom 19. zum 20. Jahrhundert empfunden, welche die verschiedensten Versuche hervorbringt, Synthesen zwischen den ausdifferenzierten Wissensgebieten herzustellen. Einen besonderen Stellenwert hat hier das Wissen der Naturwissenschaftler, auf welche noch der materialistische und positivistische Optimismus des 19. Jahrhunderts wirkt.
An den Autobiographien des spanischen Histologen Santiago Ramón y Cajal (1852-1934) und des deutschen Chemikers Wilhelm Ostwald (1853-1932) zeigt sich exemplarisch, wie naturwissenschaftliche Spezialisten als Autoren auf dieses Spannungsverhältnis reagieren. In drei Kapiteln führt die literaturwissenschaftliche Untersuchung vor, wie die Autoren sprachliche Formen aus ihrer Spezialisierung entlehnen und für die Darstellung des eigenen Lebens nutzen. Historisch führt die Lektüre zu dem Schluss, dass in diesen Texten eine Verschiebung des Positivismus aus der Philosophie in die Autobiographik stattfindet.
Systematisch stellt der im Band entwickelte Begriff des biographischen Lebenswissens einen Versuch dar, das Leben des Einzelnen für die Sinngebung im Text starkzumachen, ohne in Biographismus oder ein Konzept starker Autorschaft zurückzufallen.
Exzentrik und Bürgertum
(2015)
Es wird eine verzweigte Intellektuellen- und Ideengeschichte um 1900 aufgeschlagen. Der Sozialphilosoph – heute aber vor allem als Schwiegersohn Wagners, Bayreuther Ideologe und Vordenker Hitlers bekannte – Chamberlain pflegte intensive Beziehungen zu jüdischen Intellektuellen. Erstaunliche Konstellationen zwischen Rassentheorie, Kulturreform, Kunst und Wissenschaft werden in einer Zeit lebendig, in der sich antisemitische und zionistische Anschauungen konsolidierten, revolutionär Konservative auf avantgardistische Künstler trafen und sich reformbewegte Sonnenanbeter gleichzeitig links- und rechtspopulistisch orientierten.
Kritische Untersuchungen zu Chamberlain und Persönlichkeiten jüdischer Herkunft sind ein Desiderat. Die Analyse und Auswertung dieser unbekannten Korrespondenzen und Hintergründe zielen in den Kernbereich deutsch-jüdischer Forschung. Das Buch zeigt Chamberlain, der in der kulturellen Szene Wiens und Bayreuths zwischen 1890 und 1920 eine Schlüsselfigur darstellt, im feingeistigen Austausch mit jüdischen Intellektuellen wie Karl Kraus, Walther Rathenau, Maximilian Harden, Otto Weininger und Martin Buber.
Es werden ideologische Verschränkungen in der Moderne und daraus resultierende Verhaltensmuster herausragender Persönlichkeiten aufgedeckt, die in Bezug auf antisemitische Verkrümmungen und sogenannten jüdischen Selbsthass eine lange Vorgeschichte des »Dritten Reiches« belegen.
In der vorliegenden Dissertation werden Migrationsdiskurse in der deutschen Grenzregion zu Polen im Vorfeld der EU-Erweiterung zum 1. Mai 2004 exemplarisch in drei deutschen Grenzstädten, der jeweils westliche Teil der ehemals gemeinsamen, seit 1945 durch eine nationalstaatliche Grenze mit dem jeweils zeitspezifischen Grenzregime geteilten, deutsch-polnischen Zwillingsstädte Frankfurt (Oder) – Słubice, Guben – Gubin und Görlitz – Zgorzelec, analysiert.
Ausgewählt wurde der Untersuchungsraum mit Blick auf die tiefgreifenden europäischen Transformationsprozesse seit den späten 1980er Jahren, die für die örtliche Bevölkerung gravierende lebensweltliche Strukturumbrüche zur Folge hatten. Die Region wurde mit der Vereinigung der beiden deutschen Staaten überdies zu einem zentralen Aktionsraum nationaler und internationaler Migrationspolitik; ihr wurde eine wichtige stellvertretende Funktion betreffend die Zutrittsregelung zugewiesen. Mit der EU-Erweiterung waren für die Region neuerliche, unmittelbare Veränderungen verbunden, die vor Ort gerade auch aufgrund damit (mutmaßlich) einhergehender Migration eher als Bedrohung denn als Chance gedeutet wurden.
Den diskurstheoretischen Hintergrund der Untersuchungen stellen in erster Linie die Arbeiten von Michel Foucault und die von Siegfried Jäger darauf aufruhend konzipierte Kritische Diskursanalyse bereit. Diskurs wird – grob vereinfacht – als Fluss von sozialen Wissensbeständen und Bewusstseinsinhalten durch die Zeit verstanden, der individuelles und kollektives Handeln von Menschen bestimmt; Diskurse sind der Ort, an dem (Be-)Deutungen von Menschen ausgehandelt, verändert und der Wirklichkeit zugewiesen werden. Der Forschungszugang versteht sich als Teil der Neuen Kulturgeographie, die konsequent nicht-essentialistisch und erkenntnistheoretisch nicht-fundamentalistisch ist.
Die Datenbasis der empirischen Analysen repräsentieren zwei Ebenen bzw. Teilsektoren des Diskurses. Zum einen die Berichterstattung der jeweils monopolartigen regionalen Tageszeitung in Frankfurt (Oder), Guben und Görlitz (Märkische Oderzeitung/Frankfurter Stadtbote, Lausitzer Rundschau/Lokalausgabe Guben, Sächsische Zeitung/Görlitzer Zeitung). Zum anderen ein Sample von insgesamt 17 Experteninterviews mit lokalen Funktionsträgern, die mit Blick auf ihr, an ihre spezifische professionelle und/oder ehrenamtliche Tätigkeit gebundenes, praxisgesättigtes Sonder- bzw. Insiderwissen zum Thema Migration ausgewählt und befragt wurden.
Die durchgeführten Analysen verdeutlichen unter anderem die Bedeutung diskurssemantischer Grundfiguren des deutschen Migrationsdiskurses im Sinne politisch und alltagskulturell konservierter migrationskritischer Vorstellungsinhalte und Bedeutungszuweisungen zu Kategorien des Fremden und Konstruktionen von Wir und/vs. Sie. Ebenso explizieren sie eine gravierende Diskrepanz zwischen dem lokalen Staat und der Lebenswelt der lokalen Bevölkerung.
Empathie im Gespräch
(2015)
Wie wird Empathie im Gespräch zum Ausdruck gebracht? Dieser Frage geht die vorliegende Untersuchung von Erzählungen persönlicher Erlebnisse in deutschen Alltags- und Radiogesprächen nach. Es wird gezeigt, welche verbalen, vokalen und kinesischen Ressourcen GesprächsteilnehmerInnen für kommunikative Verfahren verwenden, die sozial-emotionales Verstehen und/oder Mitgefühl nahe legen. Die theoretisch-methodische Grundlage der Arbeit bilden Konversationsanalyse, Interaktionale Linguistik und Multimodalitätsforschung. Phänomene des sozialen Miteinanders wie Empathie, Verstehen, Verständnis und Affektivität werden als interaktional hervorgebrachte Darstellungen analysiert, so wie GesprächsteilnehmerInnen sie füreinander konstruieren und interpretieren. Empathie wird also als beobachtbares Phänomen tatsächlicher Lebenswelt beschrieben. Diese interaktionslinguistische Perspektive leistet nicht nur einen empirischen Beitrag zur konversationsanalytischen Affektivitätsforschung. Sie bereichert darüber hinaus die aktuelle disziplinübergreifende Empathieforschung.
Die Phyllosphäre
(2015)
Kopplungsangebote
(2015)
Kopplungsangebote, insbesondere Kundenbindungssysteme, werfen zahlreiche lauterkeits- und vertragsrechtliche Fragen auf. Das Buch stellt alle Anforderungen, die an den Inhalt und die Transparenz von Kopplungsangeboten gestellt werden, dar und berücksichtigt auch wettbewerbsrechtliche Nebengesetze (z. B. die PAngV) sowie spezialgesetzliche Kopplungsverbote. Der Autor untersucht, in welchem Fall Kopplungsgeschäfte verbotsgesetz- oder sittenwidrig sind: Ab wann stellen etwa Kopplungsangebote gegenüber Drittverantwortlichen nichtige Korruptionsabreden (§ 299 StGB) dar? Es liegt damit eine Gesamtdarstellung der Kopplungsangebote im geltenden Vertrags- und Lauterkeitsrecht vor, die den Anspruch stellt, eine Beurteilung der Zulässigkeit spezifischer Angebote so weit wie möglich abstrakt zuzulassen.
Der klassische Fernsehrundfunk genießt verfassungsrechtlich und einfachgesetzliche eine privilegierte Sonderstellung. Diese setzt sich bei der Kabelbelegung fort, wo er - insbesondere der öffentliche Rundfunk - gegenüber teemedialen Anrufangeboten bevorrechtigt wird. Hintergrund dieser Sonderstellung ist nicht zuletzt die auf den Rundfunk zentrierte Medienordnung. Die Arbeit untersucht, ob diese Medienordnung und damit die Sonderstellung des Rundfunks noch zeitgemäß ist und schlägt Anpassungen vor.
Sandra Eger befasst sich in diesem Buch mit der Möglichkeit, politisches Verstehen durch den Einsatz von Jugendliteratur zu fördern. Dabei wird sowohl die Möglichkeit eines Einsatzes im Fachunterricht Politische Bildung als auch im fächerübergreifenden Unterricht der Sekundarstufe I betrachtet. Neben einer empirischen Studie, die die Frage beantwortet, inwiefern derzeit Jugendliteratur in der Sekundarstufe I zur Förderung politischen Verstehens eingesetzt wird, bieten jugendliterarische Beispiele zur Förderung politischen Verstehens Anregungen für die Unterrichtspraxis.
Aminosäuren sind lebensnotwendige Moleküle für alle Organismen. Ihre Erkennung im Körper ermöglicht eine bedarfsgerechte Regulation ihrer Aufnahme und ihrer Verwertung. Welcher Chemosensor für diese Erkennung jedoch hauptverantwortlich ist, ist bisher unklar. In der vorliegenden Arbeit wurde die Rolle der Umamigeschmacksrezeptoruntereinheit Tas1r1 jenseits ihrer gustatorischen Bedeutung für die Aminosäuredetektion in der Mundhöhle untersucht.
In der histologischen Tas1r1-Expressionsanalyse nichtgustatorischer Gewebe der Mauslinie Tas1r1-Cre/ROSA26-tdRFP wurde über die Detektion des Reporterproteins tdRFP die Expression des Tas1r1 in allen untersuchten Geweben (Speiseröhre, Magen, Darm, Bauchspeicheldrüse, Leber, Niere, Muskel- und Fettgewebe, Milz, Thymus, Lymphknoten, Lunge sowie Hoden) nachgewiesen. Mit Ausnahme von Dünndarm und Hoden gelang hierbei der Nachweis erstmals spezifisch auf zellulärer Ebene. Caecum und Lymphknoten wurden zudem neu als Expressionsorte des Tas1r1 identifiziert.
Trotz der beobachteten weiten Verbreitung des Tas1r1 im Organismus – unter anderem auch in Geweben, die für den Proteinstoffwechsel besonders relevant sind – waren im Zuge der durchgeführten Untersuchung potentieller extraoraler Funktionen des Rezeptors durch phänotypische Charakterisierung der Mauslinie Tas1r1-BLiR nur schwache Auswirkungen auf Aminosäurestoffwechsel bzw. Stickstoffhaushalt im Falle eines Tas1r1-Knockouts detektierbar. Während sich Ernährungsverhalten, Gesamtphysiologie, Gewebemorphologie sowie Futterverdaulichkeit unverändert zeigten, war die renale Stickstoffausscheidung bei Tas1r1-Knockout-Mäusen auf eiweißarmer sowie auf eiweißreicher Diät signifikant verringert. Eine Überdeckung der Auswirkungen des Tas1r1-Knockouts aufgrund kompensatorischer Effekte durch den Aminosäuresensor CaSR oder den Peptidsensor Gpr93 war nicht nachweisbar. Es bleibt offen, ob andere Mechanismen oder andere Chemosensoren an einer Kompensation beteiligt sind oder aber Tas1r1 in extraoralem Gewebe andere Funktionen als die der Aminosäuredetektion übernimmt. Unterschiede im extraoralen Expressionsmuster der beiden Umamirezeptor-untereinheiten Tas1r1 und Tasr3 lassen Spekulationen über andere Partner, Liganden und Funktionen zu.
Die Veröffentlichung ist, neben der Evaluation des Systemischen Aggressionsmanagements (SAM), ein Beitrag für die Diskussionen um Habitusformen und Kompetenzbegriffe. Sie bildet einen Brückenkopf, denn beide Diskursstränge zusammengedacht können gegenseitige Anschlussstellen und Erweiterungen offenlegen bzw. eingehen. Zudem bildet sie ein Puzzleteil in der Evaluation von pädagogischen Programmen, die in ihrer Vielzahl einer Evaluation bedürfen. Im Rahmen der Bildungswissenschaft können auf dieser Basis erwachsenbildnerische Präventions- und Interventionsprogramme empirisch gesteuert angepasst werden.
Auf theoretischer Ebene wird zunächst der Gegenstand der Untersuchung herausgearbeitet. Der Habitus aggredi bildet die zentrale Analysestruktur. Sie bildet den Zugang zur pädagogischen Professionalität. Im Diskurs um pädagogische Professionalität besitzt der Begriff der ‚Kompetenz‘ einen prominenten Stellenwert. Mittels einer theoretischen Triangulation werden ‚Habitus‘ und ‚Kompetenz‘ gekoppelt. Einstellungen, Stile und geschmackliche Vorlieben sowie spezifische Wahrnehmungs-, Denk- und Handlungsmuster drücken sich in ihrer Performanz über Fertigkeiten und Fähigkeiten aus. Insgesamt wird der Bogen von der pädagogischen Professionalität über lebenslanges Lernen, Weiterbildung, Habitus und Kompetenz bis hin zu Wissen, Fertigkeiten und Fähigkeiten gespannt.
Um der Frage nach Effekten des SAM nachzugehen, wurde eine dreistufige summativ-evaluationsorientierte Paneluntersuchung im methodentriangulierten Design durchgeführt. Sie zeigte auf qualitativer Ebene, dass der Habitus aggredi als Subkategorie des professionellen Habitus durchaus mittel Weiterbildung bewegt werden kann. Die Zielgruppe der Kitaerzieher_innen konnte auch nach drei Monaten Weiterbildungsinhalte erinnern. Bei Teilen der Zielgruppe konnte eine Erweiterung von Handlungsoptionen nachgewiesen werden. Zudem zeigte sich, dass SAM auch in den privaten Bereich hinein wirksam ist.
Zellbasierte heterologe Expressionssysteme bieten ein einfaches und schnelles Verfahren, um neue Süßstoffe oder Süßverstärker zu finden. Unter Verwendung eines solchen Testsystems, konnte ich in Zusammenarbeit mit der Symrise AG, Holzminden und dem Institut für Pflanzenbiochemie in Halle/Saale die vietnamesische Pflanze Mycetia balansae als Quelle eines neuen Süßstoffs identifizieren. Deren Hauptkomponenten, genannt Balansine, aktivieren spezifisch den humanen Süßrezeptor. Chimäre Rezeptoren zeigten, dass die amino-terminalen Domänen der Süßrezeptoruntereinheiten, welche ein Großteil der Liganden des Süßrezeptors binden, für dessen Aktivierung durch Balansin A nicht notwendig sind.
Voraussetzung für die Anwendung zellbasierter Testsysteme zum Auffinden neuer Süßstoffe ist jedoch, dass süße Substanzen gesichert identifiziert werden, während nicht süße Substanzen zuverlässig keine Rezeptoraktivierung aufweisen. Während in HEK293 TAS1R2 TAS1R3To Galpha15i3-Zellen Süßrezeptoraktivierung gegenüber nicht süß schmeckenden Substanzen beobachtet wurde, konnte mit den HEK293PEAKrapid Galpha15-Zellen ein zuverlässiges Testsystem identifiziert, welches den Süßgeschmack der untersuchten Substanzen widerspiegelte.
Es fanden sich keine Hinweise, dass akzessorische Proteine oder verwandte Rezeptoren des Süßrezeptors das unterschiedliche Verhalten der Zellen verursachen. Es konnte gezeigt werden, dass die Verwendung unterschiedlicher G-Proteine die Signalamplituden des Süßrezeptors beeinflusst, die Unterschiede zwischen den Zellsystemen jedoch nicht vollständig erklärt. Keine der untersuchten Galpha-Proteinchimären spiegelte die intrinsische Süße der Substanzen wider.
Wenn auch nicht ursächlich für die Diskrepanz zwischen Süßrezeptoraktivierung in vitro und Süßgeschmack in vivo, so weisen die Ergebnisse dieser Arbeit auf eine Interaktion der Süßrezeptoruntereinheiten mit dem humanen Calcium-sensing Rezeptor hin. Vanillin und Ethylvanillin konnten als neue Agonisten des Calcium-sensing Rezeptors identifiziert werden.
Wie die vorliegende Arbeit zeigt, können sich kleine Unterschiede im Zellhintergrund deutlich auf die Funktionsweise heterolog exprimierter Rezeptoren auswirken. Dies zeigt wie wichtig die Wahl der Zellen für solche Screeningsysteme ist.
Seit den 60er Jahren gibt es im deutschsprachigen Raum Diskussionen um die Begriffe Schlüsselqualifikation und (Schlüssel-)Kompetenz, welche seit ca. 2000 auch in der Informatikdidaktik angekommen sind. Die Diskussionen der Fachdisziplinen und ihre Bedeutung für die Informatikdidaktik sind Gegenstand des ersten Teils dieser Dissertation. Es werden Rahmenmodelle zur Strukturierung und Einordnung von Kompetenzen entworfen, die für alle Fachdisziplinen nutzbar sind. Im zweiten Teil wird ein methodologischer Weg gezeigt, Schlüsselkompetenzen herzuleiten, ohne normativ vorgehen zu müssen. Hierzu wird das Verfahren der Qualitativen Inhaltsanalyse (QI) auf informatikdidaktische Ansätze angewendet. Die resultierenden Kompetenzen werden in weiteren Schritten verfeinert und in die zuvor entworfenen Rahmenmodelle eingeordnet. Das Ergebnis sind informatische Schlüsselkompetenzen, welche ein spezifisches Bild der Informatik zeichnen und zur Analyse bereits bestehender Curricula genutzt werden können. Zusätzlich zeigt das Verfahren einen Weg auf, wie Schlüsselkompetenzen auf nicht-normativem Wege generell hergeleitet werden können.
Der Franchisevertrag
(2015)
Der Na⁺-K⁺-2Cl⁻-Kotransporter (NKCC2) wird im distalen Nephron der Niere exprimiert. Seine Verteilung umfasst die Epithelien der medullären und kortikalen Teile der dicken aufsteigenden Henle-Schleife (Thick ascending limb, TAL) und die Macula densa. Resorptiver NaCl-Transport über den NKCC2 dient dem renalen Konzentrierungsmechanismus und reguliert systemisch auch Volumenstatus und Blutdruck. Die Aktivität des NKCC2 ist mit der Phosphorylierung seiner N-terminalen Aminosäurereste Serin 126 und Threonin 96/101 verbunden. Vermittelt wird diese durch die homologen Kinasen SPAK (SPS-related proline/alanine-rich kinase) und OSR1 (Oxidative stress responsive kinase 1), die hierzu ihrerseits phosphoryliert werden müssen. Der regulatorische Kontext dieser Kinasen ist mittlerweile gut charakterisiert. Über Mechanismen und Produkte, die den NKCC2 deaktivieren, war hingegen weniger bekannt. Ziel der Arbeit war daher zu untersuchen, welche Wege zur Deaktivierung des Transporters führen. Der intrazelluläre Sortierungsrezeptor SORLA (Sorting-protein-related receptor with A-type repeats) war zuvor in seiner Bedeutung für das Nephron charakterisiert worden. Ein SORLA-defizientes Mausmodell weist unter anderem eine stark verringerte NKCC2-Phosphorylierung auf. Unter osmotischem Stress können SORLA-defiziente Mäuse ihren Urin weniger effizient konzentrieren. Meine Resultate zeigen mit hochauflösender Technik, dass SORLA apikal im TAL lokalisiert ist und dass mit NKCC2 eine anteilige Kolokalisation besteht. Unter SORLA Defizienz war die für die NKCC2 Aktivität maßgebliche SPAK/OSR1-Phosphorylierung gegenüber dem Wildtyp nicht verändert. Jedoch war die ebenfalls im TAL exprimierte Phosphatase Calcineurin Aβ (CnAβ) per Western blot um das zweifache gesteigert. Parallel hierzu wurde immunhistochemisch die Kolokalisation von verstärktem CnAβ-Signal und NKCC2 bestätigt. Beide Befunde geben zusammen den Hinweis auf einen Bezug zwischen der reduzierten NKCC2-Phosphorylierung und der gesteigerten Präsenz von CnAβ bei SORLA Defizienz. Die parallel induzierte Überexpression von SORLA in HEK-Zellen zeigte entsprechend eine Halbierung der CnAβ Proteinmenge. SORLA steuert demzufolge sowohl die Abundanz als auch die zelluläre Verteilung der Phosphatase. Weiterhin ließ sich die Interaktion zwischen CnAβ und SORLA (intrazelluläre Domäne) mittels Co-Immunpräzipitation bzw. GST-pulldown assay nachweisen. Auch die Interaktion zwischen CnAβ und NKCC2 wurde auf diesem Weg belegt. Da allerdings weder SORLA noch NKCC2 ein spezifisches Bindungsmuster für CnAβ aufweisen, sind vermutlich intermediäre Adapterproteine bei ihrer Bindung involviert. Die pharmakologische Inhibition von CnAβ mittels Cyclosporin A (CsA; 1 h) führte bei SORLA Defizienz zur Normalisierung der NKCC2-Phosphorylierung. Entsprechend führte in vitro die Gabe von CsA bei TAL Zellen zu einer 7-fach gesteigerten NKCC2-Phosphorylierung. Zusammenfassend zeigen die Ergebnisse, dass die Phosphatase CnAβ über ihre Assoziation mit NKCC2 diesen im adluminalen Zellkompartiment deaktivieren kann. Gesteuert wird dieser Vorgang durch die Eigenschaft von SORLA, CnAβ apikal zu reduzieren und damit die adluminale Phosphorylierung und Aktivität von NKCC2 zu unterstützen. Da Calcineurin-Inhibitoren derzeit die Grundlage der immunsupprimierenden Therapie darstellen, haben die Ergebnisse eine klinische Relevanz. Angesichts der Co-Expression von SORLA und CnAβ in verschiedenen anderen Organen können die Ergebnisse auch über die Niere hinaus Bedeutung erlangen.
Virtuelles Hausrecht?
(2015)
Webpräsenzen bilden bislang keinen eigens anerkannten Schutzgegenstand unserer Rechtsordnung. Um diese vermeintliche Schutzlücke zu schließen, wurde das virtuelle Hausrecht herangezogen. In einer Parallele zum Hausrechtsinhaber in der physischen Welt soll dem Webpräsenzbetreiber ein originäres Schutzrecht gegenüber den Nutzern seiner Webpräsenz in Form eines virtuellen Hausrechts zur Verfügung stehen.Gabriella Piras erörtert mögliche dogmatische Begründungen für die Übertragung des im Sachenrecht verwurzelten Hausrechts auf den virtuellen Raum, die sie im Ergebnis ablehnt. Außerdem kritisiert sie, dass es einer Neuequilibrierung des Spannungsverhältnisses zwischen Webpräsenzbetreiber und Nutzern durch die Anerkennung eines virtuellen Hausrechts nicht bedarf, und dies vielmehr einen Versuch der Beschränkung der Internetfreiheit der Nutzer darstellt.
Entlastung und Rechtsverlust
(2015)
Die Durchsetzung von Ersatzansprüchen gegenüber Vorständen, Aufsichtsräten und Geschäftsführern begegnet vielfältigen Problemen. Sie entstehen, wenn die Gesellschafter den Organmitgliedern zunächst vorbehaltlos "Entlastung" erteilen und erst im Nachhinein von Verfehlungen erfahren. Die Arbeit geht der Frage nach, in welchen Fällen die Entlastung zum Verlust von Ersatzansprüchen führt und die Haftung der Organmitglieder ausschließt.
Die vergleichende Arbeit beschäftigt sich mit der Bürgerbeteiligung in Städten in Deutschland und Frankreich. In den letzten 20 Jahren haben sich die Formen lokaler Demokratie immer wieder verändert und sich den örtlichen Gegebenheiten angepasst. Das Interesse der Bürger, Verwaltung und politisch gewählten Vertreter an Partizipation wächst stetig . Das heißt aber auch, dass sich diese 3 Akteure den neuen Strukturen anpassen und eigene Strategien entwickeln müssen. Die demokratischen Formen der kooperativen bzw. partizipativen Demokratie werden immer häufiger angewandt. Diese Arbeit evaluiert die verschiedenen Bürgerbeteiligungsinstrumente in Frankreich und Deutschland in dem zwischen Input, Output und Outcome unterschieden wird. Insbesondere die Bürgerhaushalte, Beiräte und Quartiersräte werden genauer betrachtet. Die Ergebnisse zeigen erste Hinweise in welche demokratische Richtung sich die deutschen Städte künftig entwickeln.
Was bleibt vom Konvent als Methode Ausgehend von der schwer greifbaren Wirkung des Zukunftskonvents von Brüssel geht das vorliegende Buch der Frage nach, was die EU von der Konventsmethode erwarten kann. Dazu wird der Brüsseler Konvent als Bestandteil eines föderalen Konstitutionalisierungsprozesses charakterisiert und mit dem Prototyp - dem US-Verfassungskonvent von Philadelphia - verglichen. Die vorliegende Arbeit nimmt damit erstmals einen strukturierten Vergleich der Konvente von Philadelphia (1787) und Brüssel (2002/03) aus politiktheoretischer Perspektive vor.
Art. 50 EUV in der Fassung des Vertrages von Lissabon normiert erstmals ein Recht für Mitgliedstaaten zum Austritt aus der EU. Manuela Ludewig stellt das Austrittsverfahren dar, diskutiert die Rechtsnatur und den Inhalt des anzustrebenden Austrittsabkommens und befasst sich mit dem Problem, ob ein (partieller) Austritt aus der Währungsunion möglich ist. Insbesondere interessiert die Autorin die Frage, ob die zur Beendigung der Mitgliedschaft in einer internationalen Organisation führenden Tatbestände einen 'notwendigen', d. h. auf die Erhaltung der Organisation, oder einen 'dynamischen', d. h. auf die bessere Realisierung des Organisationszwecks gerichteten Effekt haben können - und zwar allein aufgrund ihrer Existenz, ihrer Instrumentalisierung (Androhung) oder ihrer Verwirklichung.
Im Rahmen der EU-weiten REACH-Verordnung haben Alternativmethoden zum Tierversuch in der Toxikologie an Bedeutung gewonnen. Die Alternativmethoden gliedern sich auf in In-vitro- und In-silico-Methoden. In dieser Dissertation wurden verschiedene Konzepte der In-silico-Toxikologie behandelt.
Die bearbeiteten Themen reichen von quantitativen Strukturaktivitätsbeziehungen (QSAR) über eine neue Herangehensweise an das gängige Konzept zur Festlegung von Grenzwerten bis hin zu computerbasierten Modellierungen zum Alkohol- und Bisphenol-A-Stoffwechsel.
Das Kapitel über QSAR befasst sich im Wesentlichen mit der Erstellung und Analyse einer Datenbank mit 878 Substanzen, die sich aus Tierversuchsstudien aus dem Archiv des Bundesinstituts für Risikobewertung zusammensetzt. Das Design wurde dabei an eine bereits bestehende Datenbank angepasst, um so einen möglichst großen Datenpool zu generieren. In der Analyse konnte u.a. gezeigt werden, dass Stoffe mit niedrigerem Molekulargewicht ein erhöhtes Potential für toxikologische Schäden aufwiesen als größere Moleküle.
Mit Hilfe des sogenannten TTC-Konzepts können Grenzwerte für Stoffe geringer Exposition festgelegt werden, zu denen keine toxikologischen Daten zur Verfügung stehen. In dieser Arbeit wurden für die Stoffe dreier Datenbanken entsprechende Grenzwerte festgelegt. Es erfolgte zunächst eine gängige strukturbasierte Aufteilung der Substanzen in die Kategorien "nicht toxisch", "möglicherweise toxisch" und "eindeutig toxisch". Substanzen, die aufgrund ihrer Struktur in eine der drei Klassen eingeordnet werden, erhalten den entsprechenden Grenzwert. Da in die dritte Klasse auch Stoffe eingeordnet werden, deren Toxizität nicht bestimmbar ist, ist sie sehr groß. Daher wurden in dieser Arbeit die ersten beiden Klassen zusammengelgt, um einen größeren Datenpool zu ermöglichen. Eine weitere Neuerung umfasst die Erstellung eines internen Grenzwerts. Diese Vorgehensweise hat den Vorteil, dass der Expositionsweg herausgerechnet wird und somit beispielsweise Studien mit oraler Verabreichung mit Studien dermaler Verabreichung verglichen werden können.
Mittels physiologisch basiertem kinetischem Modelling ist es möglich, Vorgänge im menschlichen Körper mit Hilfe spezieller Software nachzuvollziehen. Durch diese Vorgehensweise können Expositionen von Chemikalien simuliert werden. In einem Teil der Arbeit wurden Alkoholexpositionen von gestillten Neugeborenen simuliert, deren Mütter unmittelbar zuvor alkoholische Getränke konsumiert hatten. Mit dem Modell konnte gezeigt werden, dass die Expositionen des Kindes durchweg gering waren. Nach einem Glas Wein wurden Spitzenkonzentrationen im Blut von Neugeborenen von 0,0034 Promille ermittelt. Zum Vergleich wurde die Exposition durch ein für Säuglinge zugelassenes alkoholhaltiges pflanzliches Arzneimittel simuliert. Hier wurden Spitzenkonzentrationen von 0,0141 Promille erreicht. Daher scheinen Empfehlungen wie gelegentlicher Konsum ohne schädigende Wirkung auf das Kind wissenschaftlich fundiert zu sein.
Ein weiteres Kinetik-Modell befasste sich mit dem Stoffwechsel von Bisphenol A. Teils widersprüchliche Daten zur Belastung mit BPA in der wissenschaftlichen Literatur führen wiederholt zu Anregungen, den Grenzwert der Chemikalie anzupassen. Die Funktionalität der am Metabolismus beteiligten Enzyme kann je nach Individuum unterschiedlich ausgeprägt sein. Mittels Modellings konnte hier gezeigt werden, dass dies maßgeblich dazu führt, dass sich berechnete Plasmaspiegel von Individuen bis zu 4,7-fach unterscheiden.
Die Arbeit konnte somit einen Beitrag zur Nutzung und Weiterentwicklung von In-silico-Modellen für diverse toxikologische Fragestellungen leisten.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Überlegene Geschäftsmodelle
(2015)
Die steuerrechtliche Behandlung der Religionsgemeindschaften in Deutschland im Vergleich zu Südkorea
(2015)
Fiktion im Historischen
(2015)
Lucans unter Nero entstandenes Epos über den römischen Bürgerkrieg zielt weniger auf eine historisch korrekte Darstellung ab als auf eine Deutung in weitaus größerem Maße. Dafür bricht der Autor mit üblichen Gattungskonventionen, obwohl er typische Elemente des Genres nutzt. Entscheidend für das Verständnis ist die Bildsprache mit ihren Gleichnissen, Kurzvergleichen, Metaphern und Exempla, die bisher zu wenig Beachtung fanden und im Anhang erstmals vollständig erfaßt sind. So gleicht etwa Crassus einem “Isthmus”, der Caesar und Pompeius trennt, der alternde Pompeius einer “stürzenden Eiche” oder Caesar durch sein schnelles entschiedenes Handeln einem “Blitz”. Solche Formen werden planvoll eingesetzt und verknüpft, um die zentrale Rolle der Akteure im Bürgerkrieg zu kommunizieren. Dabei kommt Caesar, Pompeius, Cato, den Soldaten, dem Volk und einigen Nebenfiguren mehr Bedeutung zu als in anderen Berichten und epischen Prätexten. Der Blick des Lesers soll weniger auf das Geschehen als auf das Verhalten der Menschen gelenkt werden, wozu einzelne Geschehensabläufe auffallend anders als in anderen Quellen gewichtet und gestaltet sind.
Die Doktorarbeit behandelt die Synthese Kohlenstoffnitrid basierter Materialien in eutektischen Mischungen bivalenter Metallchloride. Der Fokus liegt dabei auf ZnCl2-, SnCl2- und CoCl2-haltigen eutektischen Mischungen, in denen die Kondensation gebräuchlicher organischer Precursoren durchgeführt wird. Im Rahmen dessen wird untersucht wie durch die Reaktionsführung in Salzschmelzen unterschiedlicher Lewis-Acidität, neben der Molekülstruktur andere charakteristische Eigenschaften, wie Morphologie, Kristallinität und spezifische Oberflächen, der Materialien kontrolliert werden können. Darüber hinaus werden die optischen Eigenschaften der Materialien erörtert und in diesem Zusammenhang die Eignung als Photokatalysatoren für den oxidativen Abbau organischer Farbstoffe und für die photokatalytische Wasserreduktion bzw. –oxidation untersucht. Zusätzlich wird gezeigt, wie im System LiCl/KCl in einem einstufigen Prozess edelmetallfreie Kohlenstoffnitrid Komposite zur photokatalytischen Wasserreduktion hergestellt werden können.
Italien und Deutschland sind zwei europäische Länder, welche im gemeinsamen Bankenmarkt und Währungsraum sehr unterschiedliche Bankensysteme repräsentieren. In Italien herrschen Privatbanken und der soziale Auftrag wird von privaten Bankenstiftungen umgesetzt. In Deutschland wird dagegen diese Funktion vor allem durch den öffentlichen Auftrag von öffentlich-rechtlichen Instituten erfüllt. Vor dem Hintergrund der dramatischen Ereignisse der letzten Finanzkrise und der darauffolgenden Neuinterpretation der Rolle von Finanzmärkten haben die Ansprüche verschiedener Stakeholder-Gruppen an das Bankgeschäft sowie deren Erfüllung an Aktualität gewonnen. Nach einer theoretisch-deduktiven und -induktiven Einführung in die Thematik des Stakeholder-Banking und ihrer heutigen Regelung wird eine qualitative Kennzahlenanalyse des deutschen und italienischen Bankenmarktes durchgeführt. Weiterhin wird ein theoretisches Modell für die eigentumsspezifische Differenzierung der Zinsmarge entwickelt und dessen Lösung anhand einer Querschnittsdatenanalyse empirisch überprüft. Die Ergebnisse weisen auf die Wichtigkeit einer ausreichenden Regulierung als Voraussetzung für eine unverzerrte Erfüllung der Stakeholder-Ansprüche hin. Es ist dabei besonders wichtig, dass das Management von Stakeholder-Banken die Leistung für die Stakeholder und den Beitrag zur sozialen Wohlfahrt offenlegt.
Der Zugang zu öffentlichem und privatem Kapital ist für Innovationen unerlässlich. Zur Beantwortung der Frage, wie KMU ihre Innovationstätigkeit in Deutschland derzeit finanzieren, wird anhand eigens erhobener Unternehmensdaten eine Analyse vorgestellt. Hierbei wird zunächst ein originärer Innovationsindex entwickelt, um innovative KMU statistisch sauber zu klassifizieren. Die anschließende Untersuchung des Finanzierungsverhaltens unterschiedlich innovativer KMU zeigt auf, dass je nach Innovationsgrad Nuancen im Finanzierungsmix bestehen. Im Ergebnis wird nachgewiesen, dass die verfügbaren internen Finanzmittel die Innovationstätigkeit und somit das Wachstum innovativer Unternehmen limitieren. Typische Innovationspartner, in Form von Beteiligungskapital (Venture Capital/Private Equity) oder Business Angels, können die aufgezeigte Kapitallücke bisher nicht schließen. Vorwiegend durch öffentliche Subventionen wird der Mangel an Finanzierungsalternativen teilweise kompensiert. Diese empirisch gewonnenen Erkenntnisse werden in den gesamtwirtschaftlichen Kontext eingeordnet und Handlungsnotwendigkeit sowie Vorschläge präsentiert. Die bisherige Forschungs- und Innovationsförderung wird aus der Perspektive innovativer KMU kritisch beleuchtet und es werden Alternativen für die deutsche Förderpolitik - u.a. im internationalen Vergleich - abgeleitet.
Das Treasury-Management von Internationalen Unternehmen gewinnt in der Praxis zunehmend an strategischer Bedeutung; eine wissenschaftlich umfassende Erörterung des Themas unter Berücksichtigung verschiedener Perspektiven und aktueller Entwicklungen fehlt jedoch. Daher wird in der vorliegenden Dissertation einerseits ein holistisches Verständnis des Treasury-Managements von Internationalen Unternehmen erarbeitet. Diese neuartige Sichtweise wird durch die Entwicklung von theoretischen Modellen untermauert und eine zunehmende Strategieorientierung nachgewiesen. Ergänzend wird das Treasury-Management vor dem Hintergrund einer Fokussierung auf Internationale Unternehmen und Finanzmärkte in einen Gesamtunternehmenskontext eingeordnet, aber auch Spezial-bereiche – wie die Corporate Governance der Treasury-Abteilung werden hinreichend behandelt. Daneben wird aber auch eine umfangreiche empirische Analyse der Bankensteuerung und des Cash-Managements von Internationalen Unternehmen am Beispiel von DAX- und MDAX-Unternehmen im Kontext der Globalen Finanzkrise durchgeführt. Es werden wesentliche Entwicklungstendenzen – wie eine zunehmende Risikoorientierung – aufgezeigt und ein Zusammenhang zwischen beiden Untersuchungsbereichen nachgewiesen.
Für Rechtsetzung sind nicht nur die Parlamente als Legislativorgan zuständig. Auch - und in weitaus größerem Umfang - werden hier exekutive öffentlich-rechtliche Organisationen tätig und erstellen Rechtsverordnungen, Satzungen und Verwaltungsvorschriften. Bisher liegen noch keine umfassenden und wissenschaftlich verwertbaren Erfahrungen darüber vor, ob sich der in Wirtschaft und Privatleben sehr intensiv entwickelnde Einsatz von Social Software auch vorteilhaft auf die Gestaltung von Rechtsetzungsprozessen auswirken kann. Im Rahmen der Arbeit wird daher ein Ordnungssystem entwickelt, das eine strukturierte und nachvollziehbare Auswahl einer Social Software-Anwendung für die Recht setzende Exekutive ermöglicht.
Serious games in andragogy
(2015)
Ni-based materials for the catalytic conversion of lignocellulosic biomass into valuable products
(2015)
Diese Arbeit untersucht, ob die Rassendiskriminierungskonvention (CERD) auf das Verhalten von Vertragsstaaten außerhalb ihres Staatsgebiets anwendbar ist. Unter Beachtung der bisherigen Rechtsprechung und Praxis anderer Menschenrechtsgremien zur Frage extraterritorialer Anwendbarkeit von Menschenrechtsverträgen werden die Entstehungsgeschichte, die Vorarbeiten zur CERD und die Praxis des CERD-Ausschusses analysiert. Diese Untersuchung bezieht auch das Verhalten der Vertragsstaaten mit ein. Die Struktur der CERD weist gegenüber anderen Menschenrechtsverträgen, die zur gleichen Zeit entstanden sind, Besonderheiten auf. Nur einzelne materielle Bestimmungen setzen die Ausübung von Hoheitsgewalt voraus. Unter diesem Aspekt sowie unter Berücksichtigung der in ihr enthaltenen Staatenpflichten wird die CERD in Bezug auf ihre extraterritoriale Anwendbarkeit erörtert. Anhand der Grundsätze des Völkerrechts werden Art und Umfang der Verpflichtungen, die den Vertragsstaaten unter der CERD auf fremdem Staatsgebiet aufgegeben werden können, diskutiert.
Wissenschaft, Technik und Medien im Werk Alfred Döblins im Kontext der europäischen Avantgarde
(2015)
Ziel dieser Studie ist es die bislang nur sporadisch untersuchten Wechselverhältnisse zwischen den Kulturbereichen Wissenschaft/Technik und Literatur am herausragenden Beispiel des Oeuvres des Schriftstellers und Arztes Alfred Döblin aufzuspüren. Hierbei scheint seine ärztlich-psychiatrische Laufbahn, die eine breite Grundlage wissenschaftlicher Diskurse anbietet, wie auch seine avantgardistische Literaturpraxis diese gegenseitige Befruchtung gefördert zu haben.
Im Hinblick auf den Forschungsgegenstand und -zweck ist ein kulturwissenschaftlicher Ansatz versucht worden. Dieser vielperspektivische Ansatz, der von der Prämisse eines Wechselspiels aller Kulturbereiche untereinander ausgeht, gestattet eine dem Gegenstand angepasste Verknüpfung von verschiedenen Arbeitsmethoden wie der philologisch-literarhistorischen mit der konstruktivistischen und der komparatistischen. Hierbei ist eine Einbeziehung wissenschafts- und technikphilosophischer Reflexion wie auch eine dementsprechend erweiterte kulturhistorische Kontextualisierung vorgenommen worden.
Die hier vorgelegte Analyse fokussiert auf wissenschaftlich-technische Bezüge sowohl in thematischer Hinsicht als auch in der Textgestaltung der schriftstellerischen Werke Döblins bis 1924. Gleichzeitig wird die diskursgeprägte, sprachliche und literarische Dimension seiner wissenschaftlichen Studien und technischer Texte - wie Krankenakte - hervorgehoben. Dieses erweiterte ‚Oeuvre‘-Konzept gestattet die Analyse der psychiatrischen, klinisch-ärztlichen und biochemischen Schriften Döblins sowie seiner Erzählwerke, seiner vielgestaltigen Publizistik und seiner intermedialen Anregungen aus den neuen audiovisuellen Medien. Dadurch wird eine diskurskritische kulturübergreifende Interdiskursivität wie auch eine ‚Hybridität‘ aller Texte aufgezeigt, die die Grundunterschiede zwischen Textsorten und Gattungsgrenzen relativiert.
Diese Arbeit befasst sich mit der ganzheitlichen Betrachtung der Fluideigenschaften eines unterpermischen Reservoirs am Geothermie Forschungsstandort Groß Schönebeck (GrSk) bei Reservoirbedingungen und im Betrieb der Geothermieanlage. Die Untersuchungen zur Fluidherkunft ergeben, dass es sich um ein konnates Wasser meteorischen Ursprungs ohne den Einfluss der darüberliegenden Zechsteinwässer handelt. Die Ionen und Isotopenverhältnisse im Formationswasser gelöster Komponenten in GrSk belegen einen gemeinsamen Genesepfad mit Wässern anderer Rotliegend-Reservoire des Nordostdeutschen Beckens (NEGB). Die Isotopenverhältnisse von ⁸⁷Sr/⁸⁶Sr ≈ 0,7158 und von δ³⁴SV CDT ≈ 4,1 ‰ des Sulfats weisen auf die Anreicherung des Fluids mit schweren Isotopen durch die Fluid Gestein-Wechselwirkung mit Vulkaniten und Rotliegend Sandsteinen des Unteren Perms hin.
Das im Formationswasser bei Reservoirbedingungen gelöste Gas (Gas/Wasser ≤ 2 bei STP) enthält Stickstoff (δ¹⁵NAir ≈ 0,6 ‰) und thermogenes Methan (δ¹³CV-PDB ≈ - 18 ‰) aus organischen Karbonablagerungen (Kerogen Typ - III Kohlen) hoher Reife. Die Isotopenverhältnisse der Edelgase belegen eine krustale Herkunft des Gasgemisches. Die berechnete Verweilzeit τ (⁴He) der Gase im Reservoir liegt zwischen 275 und 317 Ma und überschreitet damit bei gegebener Konzentration von Mutternukliden im Reservoirgestein das allgemein angenommene Zeitalter der Sedimentgruppe. Das lässt sich durch eine Zuwanderung von Gasen aus älteren Sedimentfolgen erklären.
Die Veränderungen der physikochemischen Fluidparameter während des Anlagenbetriebs sind hauptsächlich temperaturbedingt. Bei stabilen Produktionsbedingungen und einer Temperatur von ca. 100 °C stabilisieren sich auch die Fluideigenschaften. Bei In situ Bedingungen übertage beträgt die Dichte ρ = 1,1325 ± 0,0002 g ∙ mL⁻¹, das Redoxpotential Eh = -105,5 ± 1,3 mV und der pH = 6,61 ± 0,002. Die relative Zusammensetzung der Gasphase bei stabilen Produktionsbedingungen zeigt dagegen eine geringe Erhöhung des Stickstoffanteils sowie des Anteils der Kohlenwasserstoffe (Ethan, Propan, usw.) und Abnahme des relativen Methananteils im Laufe des Betriebs.
Die quantitative Untersuchung der sekundären mineralischen Ausfällungen im Fluid mittels sequentieller Extraktion zeigte, dass Schwermetalle als eine Hauptkomponente der Fluidfestphase größtenteils in Verbindung mit organischen Molekülen vorliegen. Experimente zum Einfluss organischer Verbindungen unterschiedlicher Substanzklassen auf eine Mobilisierung der Schwermetalle aus dem Reservoirgestein ergaben, dass die Verbindungen wie Fettsäuren und PAK (polyzyklische aromatische Kohlenwasserstoffe) die Freisetzung von Kupfer, Nickel, Chrom und Blei verhindern bzw. zu derer Immobilisierung beitragen. Im Gegensatz dazu wird die Mobilität von Zink in Anwesenheit von diesen Verbindungen erhöht. Niedermolekulare Monocarbonsäuren und stickstoffhaltige Heteroaromaten tragen, mit Ausnahme von Blei, zur Freisetzung bzw. Mobilisierung von Schwermetallen aus dem Reservoirgestein bei.
Die gewonnenen Erkenntnisse dieser Arbeit bestätigen das Risiko massiver Ausfällungen auf der kalten Seite der Geothermieanlage bei Inbetriebnahme des Kraftwerks, wenn keine an den Fluidchemismus angepassten Präventionsmethoden eingesetzt werden. Die Isotopenzusammensetzung der Fluidkomponenten sowie geringfügige Schwankungen der Gaszusammensetzung im kontinuierlichen Anlagenbetrieb lässt eine Kommunikation des unterpermischen Reservoirs mit dem darunter liegenden Oberkarbon vermuten, was eine nachträgliche Veränderung der Fluidzusammensetzung beim Dauerbetrieb der Anlage bedeuten kann.
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können.
Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt.
Die Populärkultur hat mit der Sitcom ein eigentümliches Genre im Fernsehen etabliert. Während Fernsehserien oft hinausblicken in jene Bereiche, die sich zum Teil drastisch von der Lebenswelt des Zuschauers unterscheiden, widersetzt sich die Sitcom seit über einem
halben Jahrhundert dieser Blickrichtung. Stattdessen lenkt sie die populärkulturelle Aufmerksamkeit auf Themen, die diesseits unseres
lebensweltlichen Horizonts verortet sind und liefert Alltagsbeschreibungen in pointierter Form. Damit bündelt sie eine Fülle von gesellschaftlichen Relevanzen und situiert sie dort, wo sie zugleich ihr Publikum findet: zu Hause, in den eigenen vier Wänden.
Situation Comedies erweisen sich nicht nur deswegen als soziologische Erkenntnismittel, die – gerade weil es sich bei ihnen um Wirklichkeitskonstruktionen zweiter Ordnung handelt – normativ aufgeladene Bilder des Alltags zeigen. Im Genre der Sitcom wird dem Alltag als Sujet gleichsam ein medialer Ort innerhalb der Populärkultur zugewiesen.
Die damit einhergehenden soziologischen und medialen Facetten ergründet die vorliegende Studie – als erste deutschsprachige Monografie zu dem Thema – im Hinblick auf verschiedene Topoi wissenssoziologisch und hermeneutisch am Beispiel ausgewählter Sitcoms der zurückliegenden 20 Jahre. Als beeindruckend erweisen sich hierbei die tiefgreifenden und bildhaften Analysen der Sitcoms und ihre Rückbindungen an wissens-, kultur- und allgemeinsoziologische Erkenntnisse. Die Sitcom erscheint als Unter-haltungsformat, das nicht nur Alltagsgeschichten erzählt, sondern die Produktions- und Rezeptionsbedingungen dieser Geschichten immer auch miterzählt. Es handelt sich mithin um mediale Artefakte, die gleichsam als unterhaltsame Mittel gesellschaftlicher Wahrnehmung und medialer Selbstwahrnehmung auftreten.
Angelegt als qualitative Studie an der Schnittstelle von Medien- und Sozialwis-senschaften, fügt das Buch dem gegenwärtigen Diskurs um Populärkultur, Fernsehserien und Kulturwissenschaften eine soziologisch fundierte Perspektive hinzu, die für Sozial- und Medienwissenschaftler ebenso anregend ist wie für jene, die mit besonderem Augenmerk auf die gegenwärtige akademische Rezeption von TV-Serien schauen – kenntnisreich dargelegt in einer klaren und zugänglichen Sprache
Kaum eine Erfindung veränderte die Kriegführung mehr als das Flugzeug. Vom ersten Motorflug bis zu den ersten Flächenbombardements vergingen nur wenige Jahre. In dieser Zeit richtete sich die englische Luftwaffe konzeptionell anhand ihrer Erfahrungen im Irak aus.
Inwieweit prägten die Erfahrungen während der Aufstandsbekämpfung an der Peripherie des Empire den strategischen Bombenkrieg gegen Deutschland? Es werden die Kampagnen im Irak der 1920er Jahre und der Luftkrieg gegen das »Dritte Reich« betrachtet, die sich in Umfang, Intensität und technischen Rahmenbedingungen zwar erheblich unterschieden. Allerdings bildeten die in beiden Kampagnen eingesetzten Soldaten der RAF das Bindeglied. Mit Hilfe kognitionspsychologischer Methoden und der Analyse von Akteursnetzwerken wird gezeigt, wie die Operationen im Irak die RAF-Offiziere prägten und die Bomberoffensive gegen das Deutsche Reich beeinflussten.
Redewiedergabeverfahren potenzieren das Moment der sozialen Positionierung in der Interaktion. Charaktere, die zum Beispiel in Erzählungen oder Argumentationen ‚zu Wort kommen‘, werden als Protagonisten und Antagonisten, Täter und Opfer, angeberisch und zurückhaltend konstruiert. Das Bild, das sich Gesprächspartner voneinander machen, wird aber nicht nur durch solche Positionierungen innerhalb der erzählten Welt, sondern auch durch ihre aktuelle Performance als Interaktionsspartner geprägt. All diese Positionierungsaktivitäten stehen in Wechselbeziehung zueinander und können auch aufschlussreiche Spannungsverhältnisse aufweisen.
Ausgehend von einer formalen Beschreibung der verwendeten Mittel zeigt die Analyse narrativ-biographisch geprägter Gespräche unter jungen Erwachsenen, wie in der Interaktion soziale Wirklichkeit ko-konstruiert wird, indem konkret oder stereotyp ‚fremde‘ Kontexte aufgerufen und als Kontrastfolie für die eigene Identitätskonstruktion genutzt werden.
Modenschauen
(2015)
Wie kommt das Neue der Mode auf die Welt? Alicia Kühl zeigt, dass das Neue nicht mehr im Modedesign, sondern im Modenschaudesign behauptet wird. In ihrer modetheoretisch fundierten Arbeit, für die sie zudem Theorien des Performativen, des Raumes, der Atmosphären und des Neuen hinzuzieht, untersucht sie Modenschauen ausgewählter Haute-Couture-und Prêt-à-porter-Designer_innen der letzten 30 Jahre und zeichnet nach, inwieweit die in ihnen erzeugten Atmosphären als Lösung einer vestimentären »Inventionsbredouille« eingesetzt werden. Die Studie hinterfragt erstmals die Funktion und Position der Modenschau innerhalb des Modezyklus, was auch eine Neubewertung der Rolle der Kleidung nach sich zieht.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
Alexandra Silbermann entwickelt einen neuartigen, systematischen Ansatz, der eine ganzheitliche Analyse und Erklärung des Bewusstseins für einen gesunden Konsum zulässt und die Identifikation bedeutender Einflussfaktoren, die für Maßnahmen zugänglich sind, ermöglicht. Ohne fundierte Kenntnisse der kognitiven Prozesse, die dem gesundheitsbewussten Konsumentenverhalten zugrunde liegen, können Marketing- bzw. Interventionsmaßnahmen nur begrenzt wirkungsvoll sein. Die Autorin leitet Implikationen für eine effizientere Förderung gesundheitsbewussten Konsums ab. Die Systematisierung ist über den Gesundheitsbezug hinaus einsetzbar. Der Inhalt Arten des Bewusstseins als Systematisierungsansatz zentraler sozial-kognitiver Konstrukte der Verhaltensforschung Theoretische Darstellung der Determinanten gesundheitsbewussten Konsumentenverhaltens Empirische Prüfung des Modells zur Erklärung gesundheitsbewussten Konsumentenverhaltens Diskussion der Einflussfaktoren und deren Beziehungsstrukturen Implikationen für Marketingwissenschaft und -management Die Zielgruppen Dozierende und Studierende der Wirtschafts-, Sozial- und Gesundheitswissenschaften mit den Schwerpunkten Konsumentenverhalten, Marktforschung sowie präventive Gesundheitsförderung Praktiker in Marketing und Marktforschung bei Anbietern von Konsumgütern und in der präventiven Gesundheitsförderung Die AutorIn Alexandra Silbermann ist wissenschaftliche Mitarbeiterin an der Universität Potsdam bei Univ.-Prof. Dr. Ingo Balderjahn am Lehrstuhl für Marketing I.
Das deutsche Zivilrecht geht davon aus, dass eine erwachsene, gesunde Person ihren Willen grundsätzlich fehlerfrei bilden und äußern kann. Eine Ausnahme gilt dann, wenn sie aufgrund besonderer geistiger oder körperlicher Umstände nicht die Fähigkeit zur freien Willensbildung besitzt. Willenserklärungen von Personen, die nicht dauerhaft, sondern nur für einen vorübergehenden Moment nicht fähig sind, ihren Willen so zu äußern wie sie es unter normalen Umständen tun würden, sind nach § 105 Absatz 2 BGB nichtig. Grund dafür ist entweder eine „Bewusstlosigkeit“ oder eine „vorübergehende Störung der Geistestätigkeit“. Die sorgfältige Auslegung des Tatbestands ist wichtig für die tägliche Entscheidungspraxis der Gerichte. Die Arbeit untersucht deshalb die Vorschrift des § 105 Absatz 2 BGB im historischen, juristischen und medizinischen Kontext, berücksichtigt dabei insbesondere die Abgrenzung zur Geschäftsunfähigkeit nach § 104 Nr. 2 BGB und geht der Anwendung der Vorschrift auf konkrete medizinische Störungen (alkoholbedingte Störungen, Abhängigkeit von illegalen Drogen, Epilepsien, Demenzen, Schizophrenien, neurotische Störungen, u.a.) nach.
Hintergrund: In Deutschland stellt der akute Myokardinfarkt (MI) eine der häufigsten Todesursachen dar. Als Ursache für regionale Unterschiede bei den Mortalitätsraten werden divergente Versorgungsstrukturen vermutet. Ziel der Untersuchung war, diese Fragestellung anhand anonymisierter krankenkassenbasierter Abrechnungsdaten zu evaluieren.
Methodik: Standardisierte Hospitalisierungs- sowie Krankenhaus- und Ein-Jahres-Mortalitätsraten nach MI wurden anhand anonymisierter Versichertendaten einer gesetzlichen Krankenkasse für das Jahr 2012 und die Bundesländer Berlin, Brandenburg und Mecklenburg-Vorpommern ermittelt (n=1.387.084, 46.3% male, 60.9 ± 18,2 years). Weiterhin wurden prädiktive Einflussfaktoren auf die Ein-Jahres-Mortalität, auf die Durchführung invasiver Prozeduren und auf eine leitliniengerechte pharmakotherapeutische Sekundärprävention analysiert.
Ergebnisse: 6.733 Patienten (73,7 ±13,0 Jahre, 56,7% männlich) wurden identifiziert. Obwohl für das Bundesland Berlin eine höhere Hospitalisierungsrate als in Mecklenburg-Vorpommern ermittelt werden konnte, ließen sich bei der Krankenhaus- und 1-Jahres-Mortalität keine signifikant abweichenden Raten zwischen den Bundesländern beobachten. Die Durchführung einer Koronarangiographie (OR: 0,42 [0,35-0,51]) und eine leitliniengerechte Pharmakotherapie (OR: 0,14 [0,12-0,17] waren mit einer geringeren 1-Jahres-Mortalität assoziiert. Die Durchführung einer Koronarangiographie und eine leitliniengerechte Pharmakotherapie von Patienten nach Myokardinfarkt wurde hingegen primär durch Alter und Geschlecht, nicht aber durch das Bundesland determiniert.
Folgerung: Eine regional divergierende stationäre und postinfarzielle Versorgung auf Bundesland-Ebene kann anhand der vorliegenden Daten nicht nachgewiesen werden.
Das deutsche Strafgesetzbuch stellt nur die Fremdtötung und die Tötung auf Verlangen in den §§ 211ff. StGB unter Strafe. Der Suizid hingegen stellt keine Straftat dar, weshalb auch die Teilnahme daran straflos bleibt. Vor dem Hintergrund der sich hieraus ergebenden Abgrenzungsschwierigkeiten gibt es seit 2006 verschiedene Gesetzesvorhaben, die Suizidmitwirkung, insbesondere durch Sterbehilfeorganisationen, strafrechtlich zu erfassen. Die vorliegende Arbeit erörtert die in diesem Zusammenhang entstehende Fragestellung, ob die Teilnahme am Suizid ein strafwürdiges Verhalten darstellt, welches strafrechtlich geahndet werden muss. Hierzu werden auch die vorgenannten Gesetzesvorhaben einer kritischen Stellungnahme unterzogen und entsprechende ausländische Regelungen betrachtet. Neben den Entwürfen eines solchen Straftatbestandes geht die Arbeit außerdem auf rechtliche Lösungen außerhalb des Strafrechts ein und stellt abschließend fest, ob ein Erfordernis zur Änderung der bestehenden Rechtslage im Strafgesetzbuch besteht.
Volksschädlinge vor Gericht
(2015)
Deutschland, September 1939. Der Zweite Weltkrieg hat gerade begonnen, die Kriegsmoral der deutschen Bevölkerung musste unter allen Umständen aufrechterhalten werden. Um ein Abklingen wie im Ersten Weltkrieg durch Aushungern zu vermeiden, musste die Versorgung der Bevölkerung mit Lebensmitteln und anderen lebenswichtigen Dingen stets gewährleistet sein.Jana Nüchterlein analysiert die am 5. September 1939 initiierte Volksschädlingsverordnung, nach der jeder, der die Verteilung verknappter und bezugsscheinpflichtiger Waren gefährdete, schwer bestraft werden sollte. Sie zeigt, dass mit der Verordnung vorrangig Ziele wie Abschreckung und Vertrauen der Bevölkerung in die Justiz (und damit in das System) erreicht werden sollten, und wie letztendlich – durch weitgefasste Tatbestände, scharfe Strafandrohungen und weit gespannte Strafrahmen – selbst die Gewährleistung der Durchführung kriegswirtschaftlicher Maßnahmen und die Unterbindung sämtlicher Formen der Sabotage zum Ziel wurden.
Arthur Ewert (1890-1959)
(2015)
Arthur Ewert (1890-1959) war in den zwanziger und frühen dreißiger Jahren ein wichtiger Funktionär der Kommunistischen Partei Deutschlands und der Kommunistischen Internationale.
Er wurde in der Familie eines armen Bauern in Ostpreußen geboren. Nach dem Abschluß der Schule ging er nach Berlin, um hier eine Lehre als Sattler zu absolvieren. Über die Berliner Arbeiterjugendbewegung fand er Kontakt zur Sozialdemokratischen Partei Deutschlands, deren Mitglied er 1908 wurde.
Im Mai 1914 emigrierte er gemeinsam mit seiner langjährigen Lebensgefährtin und späteren Ehefrau Elise Saborowski (1886-1939) nach Nordamerika, wo er sich sofort der sozialistischen Bewegung anschloß. Anfang 1919 gehörte er zu den Mitbegründern der ersten Kommunistischen Partei Kanadas.
Im Sommer 1919 kehrte er nach Deutschland zurück und wurde Mitglied der wenige Monate zuvor gegründeten KPD.
Auf dem Leipziger Parteitag der KPD im Februar 1923 wurde er in die zwanzigköpfige Zentrale seiner Partei gewählt und stieg damit in den engeren Führungszirkel auf.
Nach der gescheiterten »Deutschen Oktoberrevolution« im Herbst 1923 kämpfte er gemeinsam mit Ernst Meyer, Hugo Eberlein, Wilhelm Pieck und anderen um das Überleben der KPD, doch gelang es seiner Gruppe nicht, den Sieg der Linken und Ultralinken im parteiinternen Machtkampf zu verhindern. Ewert wurde politisch »kaltgestellt« und schied für mehr als ein Jahr aus der Parteiführung aus.
In dieser Zeit erfüllte er verschiedene Aufgaben für die Kommunistische Internationale. Bereits im Juni 1923 war er Berichterstatter zur Lage in der Norwegischen Arbeiterpartei gewesen, ab Ende 1924 war er Abgesandter bei der KP Großbritanniens. Im Sommer und Frühherbst 1927 hielt er sich mehrere Monate in den USA auf.
Im Sommer 1925 wurde er auf Veranlassung der Kommunistischen Internationale in die Führung der KPD zurückgeholt. Er trug wesentlich dazu bei, die Parteiführung unter Ernst Thälmann zu stabilisieren und sie – zumindest zeitweise – auf einen realpolitischen Kurs zu orientieren.
Mit dem erneuten »Links«-Schwenk der KPD ab Anfang 1928 wurde er als »Versöhnler« stigmatisiert und zunehmend zur Zielscheibe innerparteilicher Attacken. Der Versuch eines »Befreiungsschlages« unter Ausnutzung der sogenannten Wittorf-Affäre im Herbst 1928 scheiterte, bis zum Sommer 1929 wurde Arthur Ewert auf Drängen Stalins und mit ausdrücklicher Zustimmung Thälmanns aus allen Funktionen in der KPD entfernt.
Nach der Auflösung des Reichstags und dem damit verbundenen Verlust seines Reichstagsmandats im Juli 1930 schied Ewert endgültig aus der deutschen Parteiarbeit aus.
Ende 1930 wurde er zum Leiter des Südamerikanischen Büros der Kommunistischen Internationale in Montevideo, der Hauptstadt Uruguays, ernannt. Er trug damit Verantwortung für die unmittelbare Anleitung der Kommunistischen Parteien im sogenannten Südkegel Südamerikas. In diese Zeit fielen seine ersten Kontakte zu Luiz Carlos Prestes, dem legendären »Ritter der Hoffnung«, mit dem er ab Anfang 1935 in Brasilien zusammenarbeitete.
Von 1932 bis 1934 leitete Arthur Ewert das Büro der Kommunistischen Internationale in Shanghai und spielte dabei eine entscheidende Rolle zugunsten Mao Tse-tungs, dessen politisches Überleben er in einem innerparteilichen Machtkampf der KP Chinas sicherte.
Als Vertreter der Kommunistischen Internationale war Arthur Ewert im Verlaufe des Jahres 1935 an den Versuchen beteiligt, in Brasilien – gestützt auf ein breites Bündnis, die »Nationale Befreiungsallianz« - einen politischen Machtwechsel herbeizuführen. Nach dem Scheitern des von Prestes geführten Aufstandsversuches wurde er Ende 1935 verhaftet. Arthur Ewert verlor in Folge der barbarischen Folterungen in brasilianischer Haft den Verstand.
Er kam im Mai 1945 im Ergebnis einer Amnestie frei. 1947 gelang es seiner Schwester, ihn in die sowjetische Besatzungszone zurückzuholen. Die Ärzte dort konnten nur noch feststellen, daß eine Heilung unmöglich war. Arthur Ewert verbrachte den Rest seines Lebens in einem Pflegeheim in Eberswalde, wo er 1959 starb.
Die Kirche Saint-Lazare in Autun wurde zu Beginn des 12. Jahrhunderts für die Reliquien des Lazarus von Bethanien erbaut. Das Bildprogramm der neuen Kirche musste sowohl den Ansprüchen und Interessen der Auftraggeber entsprechen als auch auf den Patron der Kirche Bezug nehmen und dem Sonderstatus als Pilgerkirche gerecht werden. Die Autorin untersucht, ob sich die einzelnen Bilder auch einem theologisch eher ungeschulten Betrachter erschließen und welche Bedeutung die Bewegung des Betrachters im Kirchenraum hat. In der Kombination von intensiver Betrachtung des Einzelbildes und sukzessiver Erfassung des Gebäudeensembles wird ein Wahrnehmungs- und Erkenntnisprozess in Gang gesetzt, der von der Anschauung des Sichtbaren zur inneren Schau führen soll.
Anfang der 1970er-Jahre engagierte sich eine Gruppe junger DDR-Autorinnen und Autoren für eine kritische, öffentliche Auseinandersetzung mit den Widersprüchen des realsozialistischen Alltags. Klaus Schlesinger (1937 2001) war neben Ulrich Plenzdorf und Jurek Becker einer ihrer profiliertesten Akteure. In dem vorliegenden Buch verfolgt Jan Kostka dessen künstlerische Entwicklung, indem er jene Texte und Bücher interpretiert, die Schlesinger bis zu seiner Übersiedlung nach Westberlin geschrieben hatte. Dabei gibt er Einblicke in das literarische Leben Berlins, in journalistische Initiativen und verlagspolitische Strategien aber auch in die westliche Rezeption der DDR-Literatur. Den zum Teil unveröffentlichten Nachlass Schlesingers aufarbeitend, vermittelt Jan Kostka das spezifische Literaturverständnis des Autors: die Benennung und Zuspitzung gesellschaftlicher Konfliktlagen, ohne diese durch vorschnelle Antworten und selbstgewisse Schuldzuweisungen abzuschwächen.
Straßen im Fluss
(2015)
Auch in historischer Zeit waren Straßen, Wege und Verkehrsbahnen Orte innovativer Entwicklungen der Technik, der Mobilität sowie der Infrastruktur. Anders als die ältere Forschung und populären Vorstellungen meinen, währten die Umgestaltungen der Kulturlandschaft seit dem 13. Jahrhundert bemerkenswert lange.
Diese »etwas andere« Mittelalter-Geschichte mit ihrer epochenübergreifenden Wirkung zeigt in vielen Details die vorliegende Studie. Sie schöpft aus den bewährten Methoden der Altweg-, Binnenschifffahrts- und Infrastrukturgeschichtsforschung und entdeckt dabei auf innovative Weise »Straßen im Fluss« als Modell. Mit Blick auf den Verkehrsraum zwischen Elbe und Oder – vom Spreewald über Berlin-Cölln und Brandenburg an der Havel bis nach Havelberg – gelingt erstmals eine zwischen dem mittelalterlichen Landesausbau und dem 16. Jahrhundert angesiedelte Geschichte der beiden Hauptflüsse Spree und Havel sowie ihrer Nebenläufe.
Der Autor rückt das Leben der Menschen am und auf dem Fluss ins Licht und beschreibt quellennah, wie vor allem die Städte, aber auch geistliche Institutionen wie Domstift oder Klöster an dem Wandel der Kulturlandschaft zu einem mannigfach »vernetzten« Verkehrsraum stark beteiligt waren. Die hier entwickelten Strukturen bewährten sich und besaßen Vorbildcharakter, so dass in späteren Jahrhunderten insbesondere Städte an diese mittelalterlichen Verkehrswirtschaftsprojekte anknüpften.
Aufgrund zunehmender Herausforderungen bei der Entsendung von Mitarbeitern ins Ausland beschäftigt sich die Dissertation ‚Optimierung der Anzahl an Auslandsentsendungen und Empowerment of Locals in internationalen Unternehmen’ unter Zuhilfenahme der deskriptiven Entscheidungstheorie mit der wissenschaftlichen Forschungsfrage, ob sich die Anzahl der Auslandsentsendungen von deutschen Großunternehmen in den nächsten Jahren verändern wird und welche Parameter, wie z.B. die strategische Ausrichtung des Unternehmens, dafür ausschlaggebend sind. Darüber hinaus wird analysiert, inwieweit eine solche Reduzierung erfolgversprechend ist und ob es eine optimale Anzahl an Auslandsentsendungen gibt. Weiterhin wird untersucht, wie Auslandsentsendungen erfolgreich optimiert werden können und ob dies - beispielsweise durch ein gezieltes Empowerment of Locals - unterstützt werden kann. Dieses Buch richtet sich sowohl an Forschende und Studierende im Bereich der BWL – insbesondere mit den Schwerpunkten Personalmanagement und Internationales Management – als auch an HR-Mitarbeiter, Führungskräfte und Berater, die an theoretischen und empirischen Erkenntnissen zu Auslandsentsendung von Mitarbeitern und Expatriate-Management interessiert sind
Der Beitrag der Dissertation „Theoriebasierte Betreuung vom Schulpraktikum im Lehramtsstudium Englisch“ zum wissenschaftlichen Diskurs liegt in der Verbindung von Theoriebereichen der Professionalisierungsforschung und angewandten Linguistik mit Untersuchungen zur hochschuldidaktischen Begleitung und Betreuung im ersten Unterrichtspraktikum des Lehramtsstudiums, dem fachdidaktischen Tagespraktikum, an der Universität Potsdam. Ein interaktionsanalytisches Vorgehen wurde eingesetzt zur Weiterentwicklung des hochschuldidaktischen Settings einer disziplinenverbindenden, fachwissenschaftlichen Begleitung von Praktika im komplexen Kontext Schule. Die Implementierung entsprechender Formate ins reguläre Studium wurde in einer über drei Jahre angelegten iterativen Studie turnusmäßig evaluiert.
Gut ausgebildete Schreibkompetenzen gelten als zentrale Voraussetzung für den schulischen Erfolg. Wenngleich die schriftliche Textproduktion unbestritten fester Bestandteil des Deutschunterrichts ist, wird vielfach beklagt, dass die vorhandenen Schreibkompetenzen unzureichend sind. Blickt man auf die fachdidaktische Forschung so zeigt sich, dass Schreibkompetenz ein schwer zu definierendes Phänomen bleibt und innerhalb der schreibdidaktischen Forschung strittig ist, wie Schreibkompetenz – insbesondere nach Erwerb der grundlegenden Schreibfertigkeiten – am Besten entwickelt werden kann. Zudem gilt für das Fach Deutsch, insbesondere den Aufgabenbereich „Texte verfassen“, das eine empirische Fundierung der Fachdidaktik bisher kaum realisiert wurde.
Vor diesem Hintergrund wurde in der vorgelegten Arbeit ein Programm zu Förderung der schriftlichen Erzählfähigkeit von Fünftklässlern entwickelt und anschließend in der regulären Unterrichtspraxis eingesetzt und begleitend evaluiert. Methodisch orientiert sich die Arbeit dabei im Hinblick auf die Konzeption, Umsetzung und Evaluation des Förderprogramms an den von Einsiedler postulierten „Standards der (didaktischen) Entwicklungsforschung“.
Bei der im ersten Schritt erfolgten Konzeption des Förderprogramms ging es darum eine spezifische, didaktische Konzeption, die Kombination sprachstruktur- und (lern)prozessbezogenener Elemente, sprachwissenschaftlich basiert und pädagogisch-didaktisch begründet zu entwickeln. Bei der hierzu notwendigen Integration verschiedener theoretischer Zugänge unterschiedlicher Fachdisziplinen galt es vorhandene Ansätze im Hinblick auf interne Anschlussmöglichkeiten auszuloten und auf diesem Wege einen sich gegenseitig ergänzenden, umfassenden Bezugsrahmen zu schaffen. Dabei gelang - unter Einbeziehung von Modellen und Befunden aus der Schreibentwicklungsforschung - die innerhalb der Schreibforschung vielfach geforderte, jedoch bisher fehlende Integration von strukturellen Ansätzen aus der linguistischen Schreibforschung mit den innerhalb der Kognitionspsychologie favorisierten prozessuellen Ansätzen.
Auf dieser Grundlage wurde ein aufgabenbasiertes Programm mit insgesamt acht verschiedenen Fördermodulen entwickelt, aufgabenbasiert deshalb, weil dies nicht nur einen lehrergesteuerten aber schülerzentrierten Unterricht ermöglicht, sondern auch einen adaptiven Unterricht, somit den spezifischen Anforderungen des Unterrichts in heterogenen Lerngruppen gerecht wird, was angesichts der zunehmenden (sprachlich-kulturellen) Heterogenität in regulären Schulklassen sinnvoll scheint.
In einem zweiten Schritt wurde innerhalb einer Pilotstudie die Umsetzbarkeit des Förderprogramms im schulischen Kontext erprobt. Unter Kontrolle seiner praktischen Umsetzbarkeit (Machbarkeitshypothese) wurde im Anschluss daran die Wirksamkeit des Förderprogramms im Hinblick auf eine Steigerung in den produktbezogenen Schreibmaßen (Wortschatzvarianz, Satzkomplexität, lexikalische Dichte, Kohäsionsgrade, Textlänge) und die Stabilität der Fördereffekte untersucht. Dies geschah mittels eines quasiexperimentellen Untersuchungsplans, genauer eines Zweigruppen-Pretest-Posttest-Follow-up-Plans mit Kontrollvariablen.
Grundlage hierfür war eine möglichst heterogene Stichprobe von knapp 200 Schüler/innen. Denn angesichts der angesprochenen zunehmenden Heterogenität in regulären Schulklassen galt es neben der Wirksamkeit und Nachhaltigkeit des Förderprogramms auch dessen Eignung für den Unterricht in heterogenen Lerngruppen zu prüfen. Die Ergebnisse dieser Prüfung sprechen dafür, dass es gelungen ist ein entsprechendes Förderprogramm zu entwickeln.
Trotz dem Auftreten von forschungsmethodischen Schwierigkeiten, die innerhalb der vorgelegten Arbeit ausführlich im Hinblick auf Ursachen und Wirkungen diskutiert werden, können, unter Berücksichtigung des explorativen Charakters der Studie, die Ergebnisse insbesondere zur Wortschatzvarianz und zur Satzkomplexität ebenfalls als Indizien für die Effektivität des Förderprogramms gelten.
Viele klinische Schnelltestsysteme benötigen vorpräparierte oder aufgereinigte Analyte mit frisch hergestellten Lösungen. Fernab standardisierter Laborbedingungen wie z.B. in Entwicklungsländern oder Krisengebieten sind solche Voraussetzungen oft nur unter einem hohen Aufwand herstellbar.
Zusätzlich stellt die erforderliche Sensitivität die Entwicklung einfach zu handhabender Testsysteme vor große Herausforderungen.
Autokatalytische Reaktionen, die sich mit Hilfe sehr geringer Initiatorkonzentrationen auslösen lassen, können hier eine Perspektive für Signalverstärkungsprozesse bieten.
Aus diesem Grund wird im ersten Teil der vorliegenden Arbeit das Verhalten der autokatalytischen Arsenit-Jodat-Reaktion in einem mikrofluidischen Kanal untersucht. Dabei werden insbesondere die diffusiven und konvektiven Einflüsse auf die Reaktionskinetik im Vergleich zu makroskopischen Volumenmengen betrachtet.
Im zweiten Teil werden thermoresponsive Hydrogele mit einem kanalstrukturierten Papiernetzwerk zu einem neuartigen, kapillargetriebenen, extern steuerbaren Mikrofluidik-System kombiniert. Das hier vorgestellte Konzept durch Hydrogele ein papierbasiertes LOC-System zu steuern, ermöglicht zukünftig die Herstellung von komplexeren, steuerbaren Point-Of-Care Testsystemen (POCT). Durch z.B. einen thermischen Stimulus, wird das Lösungsverhalten eines Hydrogels so verändert, dass die gespeicherte Flüssigkeit freigesetzt und durch die Kapillarkraft des Papierkanals ins System transportiert wird. Die Eigenschaften dieses Gelnetzwerks können dabei so eingestellt werden, dass eine Freisetzung von Flüssigkeiten sogar bei Körpertemperatur möglich wäre und damit eine Anwendung gänzlich ohne weitere Hilfsmittel denkbar ist. Für die Anwendung notwendige Chemikalien oder Enzyme lassen sich hierbei bequem in getrocknetem Zustand im Papiersubstrat vorlagern und bei Bedarf in Lösung bringen.
Im abschließenden dritten Teil der Arbeit wird ein durch Hydrogele betriebener, Antikörper-basierter Mikroorganismenschnelltest für Escherichia coli präsentiert. Darüber hinaus wird weiterführend eine einfache Methode zur Funktionalisierung eines Hydrogels mit Biomolekülen über EDC/NHS-Kopplung vorgestellt.
Seit Einführung der ZPO war in Rechtsprechung und Literatur umstritten, ob titulierte Unterlassungsansprüche noch vollstreckt werden können, wenn sich der zugrunde liegende Anspruch bereits erledigt hat. Im Jahr 2003 hat sich der Bundesgerichtshof hierzu erstmals positioniert und einen – scheinbar – simplen Ausweg aus dem dogmatischen Dilemma anhand einer zeitlich beschränkten Erledigungserklärung aufgezeigt. Die Diskussionen in Rechtsprechung und Literatur sind seitdem verstummt. Die Untersuchung setzt sich mit den Grundlagen einer Vollstreckung nach § 890 ZPO auseinander und zeigt auf, dass die Entscheidung für eine zeitlich beschränkte Erledigungserklärung ein Ausweg sein kann – sofern die prozessualen Weichen hierfür bereits im Erkenntnisverfahren richtig gestellt werden.
Die vorliegende Arbeit beschäftigt sich mit der ertrag- und schenkungsteuerlichen Behandlung von Vermögensübertragungen, die disquotal, also nicht dem Beteiligungsverhältnis entsprechend, erfolgen. Bezogen auf das Verhältnis zwischen einer GmbH und ihren Gesellschaftern untersucht die Arbeit die Motive für disquotale Leistungen, die möglichen Vermögensübertragungstatbestände und deren tatsächliche Ausgestaltung. Gewollte disquotale Vermögensübertragungen lassen sich am besten mit verdeckten Gewinnausschüttungen und verdeckten Einlagen erreichen. Die gesellschaftsrechtlichen Beschränkungen spielen hierbei keine große Rolle. Ertragsteuerrechtlich werden die disquotalen Vermögensübertragungen durch die Finanzverwaltung und die Rechtsprechung anerkannt. Schenkungsteuerrechtlich ist die Behandlung dagegen problematisch und teilweise nicht sachdienlich. Im Ergebnis wird ein Lösungsansatz dargeboten, der auch die Besonderheiten im Wirtschaftsleben unter Einschaltung einer GmbH berücksichtigt.
Aufgrund ihrer potenziell gesundheitsfördernden Wirkung sind die polyphenolischen Isoflavone für die menschliche Ernährung von großem Interesse. Eine Vielzahl an experimentellen und epidemiologischen Studien zeigen für die in Soja enthaltenen Isoflavone Daidzein und Genistein eine präventive Wirkung bezüglich hormon-abhängiger und altersbedingter Erkrankungen, wie Brust- und Prostatakrebs, Osteoporose, Herz-Kreislauf-Erkrankungen sowie des menopausalen Syndroms. Die Metabolisierung und Bioaktivierung dieser sekundären Pflanzenstoffe durch die humane intestinale Darmmikrobiota ist individuell unterschiedlich. Nur in einem geringen Teil der westlichen Bevölkerung wird der Daidzein-Metabolit Equol durch spezifische Darmbakterien gebildet. Ein isoliertes Equol-produzierendes Bakterium des menschlichen Darmtrakts ist Slackia isoflavoniconvertens. Anhand dieser Spezies sollten die bislang unbekannten, an der Umsetzung von Daidzein und Genistein beteiligten Enzyme identifiziert und charakterisiert werden.
Fermentationsexperimente mit S. isoflavoniconvertens zeigten, dass die Gene der Daidzein und Genistein-umsetzenden Enzyme nicht konstitutiv exprimiert werden, sondern induziert werden müssen. Mit Hilfe der zweidimensionalen differentiellen Gelelektrophorese wurden sechs Proteine detektiert, welche in einer S. isoflavoniconvertens-Kultur in Anwesenheit von Daidzein induziert wurden. Auf Grundlage einzelner Peptidsequenzen erfolgte die Sequenzierung eines Genkomplexes mit den in gleicher Orientierung angeordneten Genen der durch Daidzein induzierten Proteine. Sequenzvergleiche identifizierten zudem äquivalente Genprodukte zu den Proteinen von S. isoflavoniconvertens in anderen Equolproduzierenden Bakterien. Nach der heterologen Expression in Escherichia coli wurden drei dieser Gene durch enzymatische Aktivitätstests als Daidzein-Reduktase (DZNR), Dihydrodaidzein-Reduktase (DHDR) und Tetrahydrodaidzein-Reduktase (THDR) identifiziert. Die Kombination der E. coli-Zellextrakte führte zur vollständigen Umsetzung von Daidzein über Dihydrodaidzein zu Equol. Neben Daidzein setzte die DZNR auch Genistein zu Dihydrogenistein um. Dies erfolgte mit einer größeren Umsatzgeschwindigkeit im Vergleich zur Reduktion von Daidzein zu Dihydrodaidzein. Enzymatische Aktivitätstests mit dem Zellextrakt von S. isoflavoniconvertens zeigten ebenfalls eine schnellere Umsetzung von Genistein. Die Kombination der rekombinanten DHDR und THDR führte zur Umsetzung von Dihydrodaidzein zu Equol. Der korrespondierende Metabolit 5-Hydroxyequol konnte als Endprodukt des Genistein-Metabolismus nicht detektiert werden. Zur Reinigung der drei identifizierten Reduktasen wurden diese genetisch an ein Strep-tag fusioniert und mittels Affinitätschromatographie gereinigt. Die übrigen durch Daidzein induzierten Proteine IfcA, IfcBC und IfcE wurden ebenfalls in E. coli exprimiert und als Strep-Fusionsproteine gereinigt. Vergleichende Aktivitätstests identifizierten das induzierte Protein IfcA als Dihydrodaidzein-Racemase. Diese katalysierte die Umsetzung des (R)- und (S)-Enantiomers von Dihydrodaidzein und Dihydrogenistein zum korrespondierenden Racemat. Neben dem Elektronentransfer-Flavoprotein IfcBC wurden auch die THDR, DZNR und IfcE als FAD-haltige Flavoproteine identifiziert. Zudem handelte es sich bei IfcE um ein Eisen-Schwefel-Protein. Nach Induktion der für die Daidzein-Umsetzung kodierenden Gene wurden mehrere verschieden lange mRNA-Transkripte gebildet. Dies zeigte, dass die Transkription des durch Daidzein induzierten Genkomplexes in S. isoflavoniconvertens nicht in Form eines einzelnen Operonsystems erfolgte.
Auf Grundlage der identifizierten Daidzein-umsetzenden Enzyme kann der Mechanismus der bakteriellen Umsetzung von Isoflavonen durch S. isoflavoniconvertens eingehend erforscht werden. Die ermittelten Gensequenzen der durch Daidzein induzierten Proteine sowie die korrespondierenden Gene weiterer Equol-produzierender Bakterien bieten zudem die Möglichkeit der mikrobiellen Metagenomanalyse im humanen Darmtrakt.
Philipp Richter untersucht Unterschiede in der Makroorganisation der Landesverwaltungen. In seiner verwaltungswissenschaftlich-empirischen Analyse zeigt er am Beispiel der Versorgungsverwaltung, wie sich der vormals einheitliche Verwaltungsaufbau durch Verwaltungsstruktur- und Funktionalreformen zwischen den Bundesländern ausdifferenziert hat und wie die dadurch entstandenen Unterschiede den Vollzug von Bundesgesetzen beeinflussen. Mit Blick auf die Implementation des Schwerbehinderten- und Sozialen Entschädigungsrechts identifiziert der Autor problemadäquate Lösungen und zieht praxisrelevante Schlussfolgerungen für eine Modernisierung des äußeren Verwaltungsaufbaus, die auch wichtige Erkenntnisse für die Ausgestaltung der Makroorganisation in anderen Verwaltungsbereichen bereithalten.